Auteur : Marion Roussel_
DOI : https://doi.org/10.48568/gwqq-8n61
Dans un précédent article, nous annoncions que l’architecture computationnelle, les approches évolutionnaire et morphogénétique – mettant l’accent sur les processus d’autopoïèse, d’auto-organisation ou d’émergence -, embrassent le paradigme de la complexité. Maître-mot de la cybernétique, présente dans les réflexions des architectes depuis la fin des années 60[i], la question de la complexité s’est imposée dans l’architecture computationnelle via le postmodernisme et le déconstructivisme[ii]. Nous ne nous attarderons pas sur cette question, et pour aller plus loin nous renvoyons à l’ouvrage d’Antoine Picon, Culture numérique et architecture, une introduction[iii] (2010).
Qu’est-ce que la complexité signifie ? Le moins que l’on puisse dire, c’est que la complexité – mot problème plutôt que solution (Edgard Morin) – est une notion complexe !
Ne prétendant pas à l’exhaustivité, et nous limitant à interroger les rapports entre les approches citées plus haut et les sciences de complexité, nous proposons d’une part de retracer l’émergence du paradigme de la complexité via le bouleversement des conceptions d’espace, de temps et de matière, c’est-à-dire par une remise en question d’une conception mécaniste et déterministe de l’univers. D’autre part, nous présenterons les sciences de la complexité et en particulier la notion de « système complexe ». Enfin nous nous interrogerons quant aux rapports qu’entretiennent l’architecture évolutionnaire et les approches morphogénétiques avec la question de la complexité, et nous attarderons plus particulièrement sur la notion d’émergence et les investigations dont elle fait l’objet depuis une dizaine d’années.
Espace, temps, matière : de l’ébranlement d’une vision du monde, vers la notion de complexité
Pour le cartésianisme, l’univers est « une machine déterministe parfaite[iv] », simple, ordonnée, prévisible, régie par des lois immuables : celles de la géométrie algébrique ou « analytique » qui fonde les mathématiques de la physique classique. A partir de la Renaissance s’engage en fait une entreprise de géométrisation de l’espace, et l’espace géométrique est conçu comme identique à l’espace réel, physique, de l’univers. L’espace physique comporte ainsi, de fait, des directions – gauche droite, haut et bas – et les axiomes euclidiens sont donnés comme préexistants : la géométrie euclidienne est pensée comme un archétype logique et universel sur lequel repose l’ensemble des lois qui régissent l’espace.
Jusqu’au début du XIXè s, l’on considère ainsi que l’espace géométrique est nécessairement euclidien. Ceci sera remis en question par la découverte des géométries non-euclidiennes dès 1813 avec Gauss, puis autour de 1830 (Nicolaï Ivanovitch Lobatchevski) et dans les années 1850 avec Bernhardt Riemann, entre autres. Celles-ci naissent d’une remise en question du cinquième postulat d’Euclide, selon lequel « par un point extérieur à une droite, il passe une droite et une seule parallèle à la droite donnée ». Si la vision de l’espace physique n’est pas fondamentalement bouleversée par ces nouvelles géométries, leur introduction permet de faire valoir que l’espace géométrique euclidien n’est qu’un modèle parmi d’autres de l’espace. Ainsi la formalisation mathématique de la géométrie euclidienne ne décrit pas la réalité vraie, la réalité physique véritable et absolue, mais une réalité : celle de notre expérience sensible de l’espace.
Le développement des géométries non euclidiennes, aboutissant notamment au calcul tensoriel, formeront l’appui, la base physico-mathématique[v], de la théorie de la relativité générale d’Albert Einstein. Cette théorie constitue la première grande révolution scientifique du XXe siècle, poursuivant l’ébranlement de la conception mécaniste et déterministe de l’univers adoptée par Newton : alors que pour Newton, temps et espace sont homogènes, isotropes et infinis, absolus et purs, c’est-à-dire qu’ils sont pensés comme des entités indépendantes, la théorie de la relativité générale promeut que l’espace et le temps sont inséparables et ne sont pas absolus. Le temps devient la 4è dimension de l’espace.
Plus encore la présence de la matière déforme l’espace-temps, modifie sa géométrie. Ainsi, à travers la théorie de la relativité, l’espace le temps et la matière sont mis en corrélation : l’espace est le temps, et l’espace-temps est un continuum indissociable de la matière. Dès les années 1920-1930, c’est cette dernière qui fera l’objet d’un bouleversement dans nos représentations du monde. La mécanique quantique, seconde grande révolution, démontre qu’on ne peut donner une description unique de la matière et prévoir son comportement de manière certaine[vi] : « La matière a cessé d’être cette chose simple, palpable, qui se meut dans l’espace, dont on peut suivre la trajectoire, dont chaque partie peut-être suivie dans son propre mouvement[vii] ».
Le paradigme de la complexité : une épistémologie nouvelle
« Nous vivons sous l’empire des principes de disjonction, de réduction et d’abstraction dont l’ensemble constitue ce que j’appelle le « paradigme de simplification ». Descartes a formulé ce paradigme maître d’Occident, en disjoignant le sujet pensant (ego cogitans) et la chose étendue (res extensa), c’est-à-dire philosophie et science, et en posant comme principe de vérité les idées « claires et distinctes », c’est-à-dire la pensée disjonctive elle-même. »
Edgard Morin, Introduction à la pensée complexe (1990), Seuil, avril 2005, p. 18.
Le philosophe français Edgar Morin situe à cette période l’émergence d’un nouveau paradigme : celui de la complexité, mettant en œuvre une révision de notre rapport au monde. Les notions d’instabilité, de hasard et d’imprédictibilité s’imposent, contre l’idée de déterminisme. L’univers n’est ni simple, ni ordonné, ni intelligible dans son ensemble : « notre univers n’est pas un assemblage mécanique mais une émergence organique[viii] ». Cette vision du monde remet en question la pensée scientifique classique : à une méthode analytique qui opérait par disjonction, séparation et réduction, on oppose le fait que « le tout est supérieur à la somme des parties ». En d’autres termes, l’étude d’éléments isolés au sein d’un ensemble ne peut aboutir à la compréhension du comportement de l’ensemble en tant que tel. Pour aborder ceci Edgard Morin invite à la pensée complexe, c’est-à-dire une forme de pensée transversale, transdisciplinaire, acceptant l’ambivalence et la contradiction (principe dialogique), intégrant le hasard et l’aléatoire.
Résumer la pensée complexe n’est pas une mince affaire. Nous renvoyons donc à l’ouvrage d’Edgard Morin Introduction à la pensée complexe (1990) et nous contenterons ici de présenter, de manière succincte, les sciences de la complexité. Celles-ci couvrent différents champs scientifiques tels que la biologie, la physique, l’informatique et les sciences de l’information mais aussi l’économie, la sociologie, la philosophie etc. Elles se sont formalisées dès la fin des les années 1940 avec le recoupement de la théorie des systèmes et des Technologies de l’Information et de la Communication, et notamment la théorie de l’information de Claude Shannon (A Mathematical Theory of Communications, 1948) et la cybernétique de Norbert Wiener (Cybernétique et société, 1950). La théorie de la computation et la machine universelle de Turing (1936) puis l’architecture de Von Neumann (1945), en permettant la naissance de l’ordinateur moderne, ont appuyé le développement des sciences de la complexité[ix] pour la simple et bonne raison que l’ordinateur est leur premier outil de recherche : par la modélisation et la simulation de systèmes complexes, l’informatique permet l’étude de la complexité.
S’il est difficile de donner une définition unique de la complexité, celle-ci divergeant selon les disciplines, la notion de « système complexe[x] » reste commune et peut être simplement définie. Une société, un être vivant, un environnement ou encore, pour citer des exemples plus précis, le cerveau humain, la bourse ou les colonies de fourmis, sont des systèmes complexes. Un système, c’est-à-dire un ensemble composé d’un grand nombre de constituants en interaction, est dit complexe lorsqu’il est impossible de prédire à l’avance son comportement ou son évolution. Il présente plusieurs caractéristiques : il est ouvert, soit en interaction avec son environnement via des boucles de rétroaction (feedback), il est capable d’auto-organisation, et enfin il donne lieu en son sein à des phénomènes ou propriétés émergentes. Questionnant les processus d’ordre, de désordre et d’organisation, les sciences de la complexité s’attachent à l’étude des systèmes complexes et de leurs évolutions, et notamment les organisations fractales, les comportements chaotiques, l’autopoïèse et l’émergence.
De la complexité en architecture : architecture évolutionnaire et approche morphogénétique
En tant que « système particulier de mise en ordre de la réalité[xi] », l’objet architectural compris comme microcosme tend à se rapporter au macrocosme de l’univers. Alors que la conception de ce dernier comme « machine déterministe parfaite » s’effondre, l’idée de l’univers comme « émergence organique »[xii], comme un tout vivant auto-organisé et autorégulé, semble avoir un retentissement tout particulier en architecture. Ce retentissement semble gagner en puissance dès les années 70 pour se répandre à partir des années 90 dans le champ de l’architecture computationnelle. Sa branche évolutionnaire, nourrie par les progrès des sciences de la computation, les sciences de l’intelligence artificielle, la systémique, la théorie de l’auto-organisation, les avancées de la biologie évolutionnaire, la théorie des automates – notamment les automates cellulaires de Von Neumann – et la découverte des algorithmes évolutionnistes (Holland)[xiii], présente l’objet architectural comme un système complexe, en analogie avec les systèmes vivants.
Les automates cellulaires et les algorithmes évolutionnaires, entres autres, permettent la modélisation et la simulation de ce système, répliquant les mécanismes de l’évolution, intégrant des opérations telles que la sélection, l’hérédité, la mutation ou l’hybridation mais aussi l’aléatoire et le hasard dans le processus de conception. Ce dernier est radicalement bouleversé : il ne s’agit plus de le maîtriser dans son ensemble pour aboutir à une forme architecturale prédéterminée. L’attention se porte sur le processus de morphogenèse, soit sur la mise en place des conditions d’émergence d’une forme par l’interaction d’influences endogènes (internes) et exogènes (issues de l’environnement) telle qu’elle a lieu dans la nature, non sur l’objet en lui-même. Ainsi la forme architecturale n’est plus pensée comme un assemblage mécanique de parties, compliqué mais décomposable, mais comme la résultante de forces et d’opérations tissées, entremêlées, inter-reliées et donc indissociables.
In fine, ce que l’architecture évolutionnaire et les approches morphogénétiques empruntent à l’étude et aux sciences de la complexité, c’est une vision systémique de l’architecture et en particulier des méthodes, des modèles informatiques, des outils pour la mise en place d’une logique de génération formelle en analogie avec les processus complexes de l’évolution biologique. L’intérêt est donc porté sur les processus de formation plutôt que sur la forme en elle-même. Pour Antoine Picon, « Une telle ambition explique l’intérêt porté par les architectes numériques à des développements scientifiques récents comme l’étude des systèmes dynamiques ou la génétique qui permettent de mettre en évidence une capacité d’auto-organisation, ou encore d’émergence, à l’œuvre partout dans la nature[xiv] ». Au début des années 2000, ces théories de l’émergence et de l’auto-organisation prendront, dans l’architecture computationnelle et en particulier dans sa branche algorithmique, une importance croissante.
Autopoïèse, auto-organisation, émergence : de la génération formelle à la « fabrication générative »
Dans l’approche évolutionnaire, l’ordinateur est utilisé comme machine de réplication des processus naturels, et notamment ceux d’émergence. Pour Mario Carpo,
The theory of nonlinearity, or emergence, posits that, sometimes, nature ‘jumps’ from one state to another in sudden and unpredictable ways, which modern science can neither anticipate nor account for. The simile often invoked is that of a heap of sand, where new grains falling onto the top accrue in regular ways up to a catastrophic point when the heap collapses or, as some say, reorganize randomly (ie, the same experiment, repeated ad infinitum, always yield different results). This state of indeterminacy can in turn be interpreted in different ways: as a banal contingency, for example, due to a variety of factors (shortage of data, fallacy of modeling, external interference etc); or as a general law of nature. The latter may not necessarily lead to animism, spiritism or black magic, but it does lead to endowing nature with some form of free will, opposite to modern science’s determinism (or, in theological terms, predestination); and once indeterminacy is seen as a state of nature, it is easy to see how computers, by the fuzzy ways they seem to work, may in turn be seen as ‘nonlinear’ thinking machines – or something similar to that.[xv]
Ainsi, l’approche évolutionnaire pose l’idée que le calcul informatique est capable de rendre compte des processus présidant à l’émergence d’une forme et de son comportement, à sa morphogenèse, son auto-organisation ou son autopoïèse. La notion d’auto-organisation apparaît au milieu du XXe siècle avec la cybernétique de Norbert Wiener et les travaux sur les automates cellulaire de John von Neumann. Elle désigne l’apparition spontanée, dynamique, d’un motif spatial sous l’effet de l’interaction des influences, des forces, internes et externes s’exerçant sur un système. Le terme d’autopoïèse, du grec auto (« de lui-même ») et poïèse (« production », « création ») désigne la capacité des êtres vivants à s’autoproduire sans cesse. Les termes d’auto-organisation et d’autopoïèse renvoient ainsi à la capacité d’un système donné de s’inventer et de se transformer de lui-même. Auto-organisation, autopoïèse, et morphogenèse sont donc des processus d’émergence, aboutissent à l’apparition spontanée d’un « tout organisé ».
A partir du début des années 2000, la notion d’émergence va faire l’objet d’un intérêt grandissant en particulier concernant la matérialisation, la fabrication et la production de l’architecture computationnelle. L’émergence n’est plus seulement pensée comme un processus de génération formelle mais aussi comme un moyen de production profondément lié à cette génération formelle[xvi] : « the logic of natural production studied in the science of emergence offers a model of seamless integration to replace the conventional separation of design and material production[xvii] ». C’est ce que Philippe Marin appelle la « fabrication générative ». Celle-ci se déploie dans deux domaines liés : la conception générative et la fabrication numérique. La conception générative s’appuie sur l’approche évolutionnaire et la fabrication numérique permet la mise en œuvre constructive des géométries et des objets en résultant. La fabrication générative consiste en fait à introduire au cœur des processus conceptuels concernant la question de la formation de la forme les contraintes matérielles et productives de sa fabrication.
Fabrication générative et poursuite de la complexité
De récentes expositions se sont faites les porte-paroles de cet attention croissante portée à la question de la fabrication générative : « (Im)material Processes: New Digital Techniques for Architecture » (Biennale de Beijing, 2008), « Transitory Objects » (Vienne, 2009-2010), ou encore « Archilab 2013 » (Orléans, 2013-2014). De jeunes agences et architectes (Alisa Andrasek – Biothing, MaterialEcology – Neri Oxman, TheVeryMany – Mark Fornes, Peter Macapia – Labdora, EZCT – Philippe Morel, Felix Agid, Jelle Feringa, etc.) explorent ce qui constitue pour Rivka Oxman un « déplacement matériel » (material shift) dans lequel :
the universal advancement of fabrication technologies added the missing links to the emerging methods and theories of generative design. […] With the emergence of new orientations to digital material design (digital materials, smart materials, hybrid materials, etc.) and the founding of the field of material‐based design computation […] tectonic processes of the formation of material systems are replacing traditional processes of shape generation in architecture.[xviii]
Comme le disait Sébastien Bourbonnais dans un précédent article, « il est fort à parier que le moment où les machines de fabrication progresseront à la hauteur des logiciels de conception, une autre étape du moment numérique sera franchie, entrainant et condensant de nouveaux sujets de questionnement[xix] ». Ainsi la liaison de l’émergence, de la matérialisation et de la fabrication au sein d’un processus de conception continu semble s’imposer comme un nouveau cap, déjà en cours de franchissement, dans la poursuite de la complexité qui anime depuis ses prémices l’architecture computationnelle.
Pour citer cet article
Marion Roussel, « L’approche morphogénétique et la poursuite de la complexité », DNArchi, 16/06/2014, <http://dnarchi.fr/culture/lapproche-morphogenetique-et-la-poursuite-de-la-complexite/>
[i] Robert Venturi, De l’Ambigüité en architecture, 1966.
[ii] Comme le dit Antoine Picon, « Reprenant à son compte l’appel lancé par Robert Venturi en faveur de la complexité et de la contradiction dans son essai de 1966 De l’Ambiguïté en architecture, le postmodernisme proprement dit est suivi d’une phase déconstructiviste au cours de laquelle la forme architecturale se veut l’expression des logiques conflictuelles qui président à naissance, logiques qu’elle exprime en ayant recours à l’hétérogénéité et à la fragmentation » (Culture numérique et architecture, une introduction, Birkhauser GmbH, 2010, p. 63). Les acteurs de l’architecture computationnelle alors émergente prennent quand à eux leurs distances face au déconstructivisme et à ses formes fracturées ou fragmentées. Ainsi, dans son essai « Architectural Curvilinearity. The folded, the Pliant and the Supple » (in Greg Lynn (éd.), AD: Folding in Architecture, vol. 63 n° 3-4, March-april 1993, pp. 22-29), Greg Lynn, très influencé par la philosophie deleuzienne du pli et par la théorie des systèmes de Gregory Bateson, se détache de la « logique de conflit et de contradiction » déconstructiviste pour proposer une approche topologique, dans laquelle la complexité est abordée via une « logique de la connectivité plus fluide ».
[iii] Antoine Picon, Culture numérique et architecture, une introduction, Birkhauser GmbH, 2010. Voir en particulier « La séduction des nouvelles géométries », pp. 60-73.
[iv] Edgard Morin, Introduction à la pensée complexe (1990), Seuil, avril 2005, p. 78.
[v] C’est notamment à Bernhardt Riemann, élève de Carl Friedrich Gauss, qu’Einstein doit sa théorie de la relativité générale. En 1851, Riemann démontre que les géométries non-euclidiennes peuvent permettre de représenter des surfaces courbes, et donc de calculer des distances sur une sphère. Ses recherches seront poursuivies par de nombreux autres, tels qu’Elwin Christoffel ou Gregorio Ricci-Curbastro, et aboutiront au calcul tensoriel.
[vi] Voir notamment le principe d’incertitude d’Heisenberg.
[vii] Erwin Schrödinger, Physique quantique et représentation du monde, Paris, Le Seuil, 1992, coll. Points Sciences, p. 30. Cité dans Edgard Morin, Introduction à la pensée complexe, op. cit.
[viii] Marc Halévy interviewé par Denis Failly, «Sciences et Sens », 23/09/2007, [en ligne] les Entretiens du Futur, URL : http://entretiens-du-futur.blogspirit.com/archive/2007/09/23/sciences-et-sens.html.
[ix] Pour une présentation des trois générations de théories de la complexité, nous renvoyons à l’article de Jean-Pierre Péneau, « L’approche ambiantale : une complexité augmentée. Partie I ».
[x] Les sciences de complexité étant également appelés « théorie des systèmes complexes »
[xi] Damien Claeys, Sylvain Marbehant, « Atelier : architecture et complexité » [en ligne] Systèmes & Organisations ASBL, URL : http://www.s-o.be/index.php?option=com_content&view=article&id=64:atelier-architecture-et-complexite&catid=1:latest-news&Itemid=50.
[xii] Selon l’expression du physicien et philosophe français Marc Halévy.
[xiii] Jean-Pierre Péneau, « L’approche ambiantale : une complexité augmentée. Partie II », DNArchi, 17/10/2012, http://dnarchi.fr/culture/lapproche-ambiantale-une-complexite-augmentee-partie-i/.
Pour une présentation de ces différentes théories, voir Olivier Scheffer, « Villes émergentes, villes mutantes : la théorie des systèmes complexes et de l’évolution appliquée à la modélisation urbaine », mémoire du Mastère Spécialisé Création et Technologie Contemporaine, ENSCI–Les Ateliers, Mai 2011 [en ligne], http://www.ensci.com/uploads/media/etude_Olivier_Scheffer.pdf.
[xiv] Antoine Picon, op. Cit., p. 62-63.
[xv] Mario Carpo, «Introduction. Twenty Years of Digital Design», in Mario Carpo (éd.) The Digital Turn in Architecture 1992-2012, John Wiley & Sons, 2013, pp. 8-14. P. 10-11.
[xvi] Michael Hensel, Achim Menges, Michael Weinstock, « Introduction to Emergence : Morphogenetic Design Strategies » (2004), in Mario Carpo , op. cit., p. 160.
[xvii] Ibid., p. 162.
[xviii] Rivka Oxman, « Naturalizing Design: In Pursuit of Tectonic Materiality », in Marie-Ange Brayer et Frédéric Migayrou (dir.), Naturaliser l’architecture, Frac Centre, Editions HYX, 2013, pp106-121.
[xix] Sébastien Bourbonnais, « Compte Rendu de Lecture : The Digital Turn in Architecture 1992-2012, Mario Carpo », DNArchi, 07/01/2012, <http://dnarchi.fr/culture/compte-rendu-de-lecture-the-digital-turn-in-architecture-1992-2012-mario-carpo>