Auteur: Philippe Boudon _
DOI : https://doi.org/10.48568/bqx5-t047
C’est autour du titre Complexité(s) des modèles de l’architecture numérique que s’est déroulé à l’Ecole d’Architecture de Paris-la-Villette, le 5ème Séminaire de Conception Architecturale Numérique (SCAN) sous la direction de François Guéna et de Caroline Lecourtois qui a rédigé la préface des Préactes, édités par les Presses Universitaires de Lorraine.
Deux excellentes conférences ont accompagné les travaux, l’une de Jean-Pierre Peneau et l’autre d’Antoine Picon. Elles étaient on ne peut plus complémentaires : démarche plutôt analytique pour l’une, plus globale et historique pour la seconde, c’est bien l’enjeu de la distinction entre méthode analytique et pensée complexe, si souvent méditée par Jean-Louis Le Moigne dont elles indiquaient en quelque sorte les pôles. On peut considérer que le domaine « numérique » se présente de façon particulièrement problématique au regard de cette distinction entre pensée analytique et pensée complexe. Il était légitime que Jean-Louis Le Moigne fût invité à présider le jury du Prix de l’Académie d’Architecture qui en a marqué la clôture.
Mais dans la chaleur de son discours, aura-t-on suffisamment pris garde à sa remarque selon laquelle la complexité n’est pas dans l’outil mais dans la tête de celui qui conçoit. Une précision majeure. Car nul doute que l’outil informatique nous aide à gérer les complications qu’entraîne une complexité qui toutefois s’en distingue. Compliqué, on sait combien peut l’être l’outil numérique, mais la complexité reste en dehors, malgré les complications qu’elle peut entrainer.
Le prix « SCAN » de l’Académie d’Architecture a été donné à Vincent Monier, Gilles Duchanois et Jean-Claude Bignon pour leur étude « Génération de structures non-standards au moyen d’éléments natifs irréguliers en bois ». Elle propose un algorithme permettant, dans un souci de valoriser la matière qu’est le bois dans son état d’origine c’est-à-dire sous une diversité de formes, d’associer des éléments non standards selon des géométries aléatoires. Tout se passe comme si était inventée ici la cabane primitive de la conception architecturale dite numérique… Une mention a été donnée à une réflexion plus problématique, au bon sens du terme de Denis Derycke. Non sans être influencé par la théorie de l’acteur réseau de Latour et Yaneva à laquelle il fait référence, l’auteur y soulève la question de la dualité entre sensible et intelligible qui naît de la distance entre un paradigme de la représentation architecturale représenté par des règles graphiques vieilles de 500 ans (le dessin d’architecture et ses figures) et l’accumulation d’informations du modèle numérique qui « rend difficile la tâche de l’utilisateur quant à leur organisation et surtout quant à la représentation graphique des objets architecturaux que ces informations contiennent ». Une belle question que l’on n’a sans doute pas fini de se poser car, là encore, c’est tout l’enjeu d’une démarche globale complexe qui est le propre de la représentation architecturale classique versus le caractère analytique des modèles numériques qui se présente suivant la bonne expression de l’auteur, comme un « oxymore épistémologique ». Mais là encore j’aimerais souligner la critique du président du jury à l’endroit du mot « numérique » auquel il aurait préféré « digital » : derrière un enjeu apparemment terminologique, un enjeu épistémologique ?
[Cet article a précédemment été publié sur la plateforme dédié à la complexité: http://www.intelligence-
Pour citer cet article
Philippe Boudon, « »Complexité(s) des modèles de l’architecture numérique » : Compte Rendu », DNArchi, 12/09/2012, <http://dnarchi.fr/complexites-des-modeles-de-larchitecture-numerique-compte-rendu>