Logique processuelle et conception architecturale à l’ère du numérique: Une expérimentation pédagogique

Auteurs : Yann Blanchi, Élizabeth Mortamais, Pascal Terracol

DOI : https://doi.org/10.48568/8tgm-yk88

[Cet article souhaite rendre compte d’une partie de nos réflexions sur les transformations des méthodes et processus de conception et de leur enseignement dans le cadre d’une école d’architecture. Notre hypothèse considère que les mutations technologiques à l’œuvre sont en passe de renouveler les pratiques de conception des « digital native ». Nous appuyons notre propos sur une expérimentation pédagogique réalisée en groupe de projet de Master 1 à l’ENSA Paris Val de Seine en 2017 et 2018. Quelles implications méthodologiques ? L’instantanéité associée à la rigueur des procédures changent-elles les rythmes de la conception ? Quels nouveaux paradigmes de conception émergent de ces mutations ? Quelles conséquences sur l’enseignement ? L’enseignement de la conception nécessite désormais un questionnement approfondi compte tenu de l’omniprésence des outils numériques qui l’assiste.]

Introduction

Nous interrogeons l’impact du numérique dans la conception architecturale en posant la question des modifications des processus cognitifs apportées par les outils numériques, tant dans les étapes méthodiques que dans la réception sensible des productions graphiques. Dans un premier temps nous situons notre propos dans le contexte sociétal et culturel, et faisons un rapide historique des ontologies et modèles du processus de conception en s’appuyant sur le cas de l’allocation spatiale. Dans un second temps sont énoncés les objectifs et le contenu de l’expérimentation pédagogique menée en groupe de projet de Master 1 à l’ENSA Paris Val de Seine en 2017 et 2018. Nous montrons ainsi comment les logiques processuelles, les dispositifs cognitifs, émanant de l’usage des outils numériques sont expérimentées par les étudiants dans les quatre phases de l’exercice rythmant le semestre de façon à la fois indépendante et interconnectée.

Le contexte perceptif et cognitif

De la mécanisation à la digitalisation

Siegfried Giedion a écrit un ouvrage stratégique pour des générations d’architectes : Espace – temps – architecture[1]. Dans le chapitre 6, intitulé « La conception ‘‘espace-temps’’ dans l’art, la construction et l’architecture » il expose plusieurs éléments majeurs de sa pensée, telle qu’elle animera et soutiendra par sa solidité théorique les démarches artistiques et architecturales modernes.

Il affirme notamment le rôle primordial du « sentiment collectif » d’une époque, rejoignant en cela, sur un autre domaine, et avec d’autres mots, les thèses de Thomas Kuhn et de Ludwik Fleick[2]

dans le domaine scientifique.

« La force et l’influence du sentiment sont beaucoup plus grandes qu’on ne le croit d’habitude… Une grande partie de notre vie affective est conditionnée par des circonstances qui échappent à notre contrôle : elles dépendent du genre d’homme que nous sommes et de l’époque à laquelle nous vivons. »[3]

Selon lui les productions scientifiques techniques et artistiques d’une époque sont celles d’hommes « …formés à une même époque et plus ou moins soumis aux mêmes influences et aux mêmes conditions.»[4]

Dans le développement de ce chapitre, préparé par les chapitres précédents, Giedion expose les étapes d’un mouvement qui touchera les artistes (cubistes) puis les architectes, remettant en cause l’omnipotence de la perspective comme mode de représentation, comme ne correspondant plus aux perceptions modernes d’un réel dont le mouvement, le déplacement et la vitesse ont modifié l’analyse, la lecture, et donc la perception sensible et les modalités de représentation. Le mouvement, incroyablement développé par la mécanisation, oblige à ne plus penser l’objet perçu uniquement au travers des trois dimensions classiques, mais d’introduire la quatrième dimension, celle du temps. C’est donc le couple espace-temps qui bouleverse les perceptions sensibles des hommes modernes et constitue une révolution artistique majeure. La suite est connue.  C’est une conception du temps spécifique dont il est question : linéaire, continu, qui a de l’épaisseur, indissolublement lié à l’espace. Plus même, il est nécessaire à une conception de l’espace qui n’est plus une représentation statique, focalisée, mais un espace qui se développe, se dilate, se modifie avec le temps, celui du mouvement qui est pensé en tant que phénomène et forme synthétique de cette relation espace-temps. 

L’hypothèse d’une sensibilité sociale et culturelle présentée en début de ce chapitre 6 est fondamentale et en tant qu’architectes, nous ne pouvons qu’y adhérer.
De fait la situation n’a-t-elle pas changée ? La mécanisation au pouvoir n’a-t-elle pas été détrônée par l’informatisation au pouvoir ? La digitalisation au pouvoir ? Le temps linéaire des machines mécaniques, thermodynamiques, n’a-t-il pas été détrôné par le temps discret, quasi-instantané des ordinateurs, des puces RFID
[5], du GPS[6] et des algorithmes. Qu’est-ce que le temps réel si ce n’est cet instant irréversible (principe de Carnot) qui dicte le rythme actuel des calculs ?

L’hypothèse que nous avançons à notre tour, déjà formulée par ailleurs[7] s’appuie sur le constat d’un temps réduit à l’instant, celui des ordinateurs, des systèmes complexes, des structures dissipatives, qui forment l’univers technologique, mais aussi culturel qui se développe actuellement. De fait, si l’on accepte cette perception sensible majeure, le couple espace-temps éclate. L’espace comme continuité explorée dans le mouvement passe en arrière-plan, tout comme l’espace focalisé par la perspective lui avait préalablement cédé la place. Si nous « barrons » l’espace, ce qui fut l’objet d’un Intensif à l’Ensa Paris Val de Seine il y a quelques années, c’est une petite révolution de la pensée et de la conception qui est à l’œuvre. Elle est déjà en marche, sans que ce soit dit, dans nombre de productions architecturales actuelles. Relire Giedion est fondamental pour apprécier ce que fut le mouvement moderne et comment il est aujourd’hui détrôné silencieusement mais sûrement. Relire Giedion et s’appuyer sur sa patiente construction d’une théorie est un conseil que nous pouvons donner à tous les étudiants qui, parallèlement se servent d’ordinateurs et des outils numériques variés (machines de découpage laser, imprimantes 3D, lunettes et logiciels de réalité virtuelle, plateformes de type Arduino[8] etc.) pour concevoir (et fabriquer) leurs projets et pas seulement les « dessiner ».

Avec le déploiement des technologies numériques et leur caractère d’ubiquité liée à la répartition mondiale des ressources de calcul via Internet, nous assistons à un changement radical de l’expérience humaine. L’accélération de la médiation technique crée un milieu tel que Félix Guattari le définissait dès 1980 :

« Comment peut-on parler aujourd’hui de production de subjectivité ? Un premier constat nous conduit à reconnaitre que les contenus de la subjectivité dépendent toujours plus d’une multitude de systèmes machiniques [9]. Nous prenons l’exemple des comportements dans l’espace public où chacun est captivé par la relation à un autre – qui n’est pas là – via un smartphone, où la quête de l’identité passe par la gestion de son propre corps médial[10].

Emergence du numérique dans l’espace public

Figure [1] Emergence du numérique dans l’espace public. Photo Jean Claude Figenwald 2018.

Aujourd’hui l’individu se retrouve immergé dans un environnement hyperconnecté, construit par des représentations symboliques qui nourrissent sa personnalité numérique stockée dans le nuage ou Cloud. Les capteurs et les périphériques intelligents qui sont dans nos vies enregistrent des évènements à des fréquences qui constituent un environnement de données qui nous concernent directement et pour lesquelles nous ne sommes pas toujours sollicités de manière consciente (Hansen[11]). Cet ensemble d’informations diverses ont peu à peu pris une place essentielle dans nos existences et constituent un intérêt qui est devenu stratégique pour tous les acteurs commerciaux. Le Big Data[12] alimente diverses stratégies marketing tout en étant également le moteur des réseaux de neurones dont il devient le carburant. Cela constitue un nouvel environnement qui revisite à la fois le modèle de Berque[13] mais également en amont la relation de la technique au monde décrite par Heidegger[14].

Des ontologies et modèles du processus de conception

La conception, la représentation et la construction du projet d’architecture ont été l’objet au cours du 20e siècle et de ce début du 21e siècle de transformations drastiques grâce à l’apparition et à l’évolution de l’informatique[15]. Les ontologies du projet font appel aux modèles mathématiques et à l’évolution des outils qui permettent de les élaborer. Alors que d’une part, la géométrie projective s’était stabilisée par les apports de Girard Desargues au 17e siècle puis par la géométrie descriptive de Gaspard Monge au 19e siècle et que d’autre part, les systèmes de conception classique du projet avaient été revisités par le rationalisme et le mouvement moderne au 20e siècle, l’outil informatique au service du projet d’architecture s’est développé selon une trois étapes significatives.

  • Tout d’abord dans les années 1970, l’allocation spatiale (voir plus loin) a tenté de se saisir de la conception automatisée de plans en fonction de critères comme les surfaces, les connexités et les orientations.
  • Par la suite, l’apparition du dessin vectoriel bidimensionnel a vu l’émergence de logiciels de dessin assisté par ordinateur (DAO), puis d’outils de conception assistée par ordinateur (CAO) appelés modeleurs.
  • Du point de vue de la morphologie, les géométries euclidienne, vectorielle, différentielle, fractale, via leur qualité analytique ouvrant la voie au calcul sont apparues comme incontournables face au déploiement d’outils de modélisation toujours plus sophistiqués et profitant de la loi de Moore[16]. En particulier ceux de la modélisation paramétrique.

Le cas de l’allocation spatiale

Nous prenons l’exemple de l’allocation spatiale afin de montrer que les modèles préexistants bien que novateurs mais limités dans leurs applications, peuvent trouver aujourd’hui un développement opérationnel notamment grâce à l’ergonomie de programmation visuelle[17] et à la démocratisation des outils de prototypage rapide[18].

Les travaux théoriques et les outils informatiques développés sur les problématiques d’allocation spatiale trouvent leurs sources aux Etats Unis[19] et en France[20]. Notamment les travaux du séminaire de Lyon en 1973 constituent un ensemble d’outils qui ont occupé une alternative aux processus de conception du projet d’architecture puisant à la fois leur fondement sur trois types d’approches complémentaires et indissociables:

    • Une approche analytique proposant la composition et la localisation d’un ensemble d’activités tout en privilégiant leurs relations respectives exprimées par une matrice symétrique de proximités et de surfaces.
    • Une approche critique questionnant la pertinence des données alimentant ces algorithmes.
    • Une approche heuristique questionnant des mécanismes d’expérimentation alors peu explorées et une tentative de mise en abyme de l’ancienneté du problème d’allocation spatiale[21].

L’émergence et le développement de ces outils s’établit dès le début des années 1970 et se poursuit jusqu’au début des années 1980. En France leur déploiement en tant qu’outils pédagogiques se réalise via le CIMA[22] et son réseau d’utilisateurs (UP6[23]) grâce à un accès à l’IRIS 80 – le calculateur du ministère de la culture alors installé rue de la Banque – sur lequel un jeu de données est analysé via une codification réalisée sous forme de cartes perforées et restitué sous forme de diagrammes imprimés. Ces outils présentent des concepts novateurs pour l’époque mais leur émergence sera néanmoins limitée par les moyens de représentation qui sont alors disponibles. Juste avant l’arrivée de l’informatique graphique les seuls outils de représentation sont alors réduits à des impressions de résultats sur listings et sur des choix de modèles de représentation inhérents à ces supports : des trames orthogonales excluant de fait les autres systèmes de composition géométriques plus sophistiqués. Leur caractère novateur réalise une ontologie qui convoque les prémisses des outils d’intelligence artificielle articulés alors au potentiel calculatoire[24] des outils informatiques.

Les développements récents de l’intelligence artificielle reprennent – via leurs heuristiques – les principes énoncés très tôt par l’allocation spatiale en particulier via la capacité d’alimenter par le Big Data les processus de classification et de supervision tels qu’ils sont énoncés par Ethem Alpaydin[25].

L’expérimentation pédagogique

Les principaux objectifs méthodologiques

La question de la place donnée au dessin comme présentation et comme re-présentation a déjà été posée dès les débuts de l’informatique en architecture[26]. Il convient donc d’approcher et d’identifier les mécanismes cognitifs qui sont à l’œuvre, tels qu’ils peuvent être expérimentés et transmis dans l’enseignement de la conception afin de tirer profit des protocoles imposés par les outils. En effet, contrairement à ce que peuvent encore (!) penser certains architectes, l’informatique graphique, la conception assistée par ordinateur, les fabrications par la numérisation, la modélisation paramétrique, ne sont pas de simples outils remplaçant le Rotring ou le crayon. Le BIM par exemple – et quoi qu’on en dise – nécessite une révolution méthodique. Comme les techniques antérieures (par exemple la perspective) ils engagent des modalités de penser, des procédures de traitement et de production des données (tout comme la représentation géométrale traite et produit des données de façon particulière) qui sont spécifiques et cela nécessite de les interroger dans leurs rapports aux « sciences de l’homme »[27]. Ces procédures ne sont pas seulement à « apprendre » mais à intégrer comme des manières de penser, d’analyser le réel. Et notamment, à l’instar des techniques modernes longuement décrites par Giedion, elles produisent des imaginaires particuliers et originaux (feed-back). Les logiques processuelles du numérique doivent être identifiées, et expérimentées de façon claire et méthodique pour une utilisation cohérente et efficace des outils dans le sens évoqué ci-dessus. Notamment les outils dits «paramétriques» demandent d’être appréhendés dans leur spécificité. De fait, pour toute forme générée, l’identification des paramètres qui la caractérisent, permettant l’évolution ou la transformation de l’objet projeté, est impérativement nécessaire. L’ontologie des formes, passe notamment par la connaissance de la géométrie en particulier analytique qui permet une programmation des dites formes.

Mais la rigueur mathématique doit aussi s’hybrider avec des univers plus oniriques. Ce que les membres de l’Oulipo avaient bien compris, construisant des protocoles d’exploration qui leur ont permis de développer des univers poétiques inédits.

De façon plus générale, les processus d’engendrement peuvent être analysés, décodés et recodés pour fournir le programme de génération d’un projet, et des expériences de manipulations et de transformations sont utiles afin de comprendre les processus de travail numérique et les employer de façon efficace et inventive. Ceci comprend aussi des manipulations et fabrications de modèles physiques (maquettes de carton, papier) qui exercent le rôle d’articulation (tests – vérifications – perception sensible)  entre les intentions « floues » et les explorations par les outils numériques.

En adoptant la position pédagogique autour du processus de conception, en lieu et place de l’apprentissage du projet (voir Boudon[28]), nous avons pour objectif de dépasser la pratique de la délivrance de savoirs ou de dogmes de manière générale – toujours soumis à l’obsolescence inévitable – et d’ouvrir les étudiants à des logiques d’engendrement qui font appels à leurs ressources cognitives. D’autre part les questions de cognition justement sont au coeur de l’actualité des appareillages numériques (dont l’intelligence artificielle). L’activité processuelle est comprise dans l’ADN même de ces outils qui s’appréhendent comme flux : il ne s’agit plus de représenter  mais de présenter[29].

Faire du projet dans le contexte du numérique ce n’est pas simplement utiliser des outils numériques. C’est comprendre, s’approprier et détourner les techniques. Cela passe par une attention particulière au contexte culturel, sociétal et ses impacts socio-organisationnels à différentes échelles. La chaine particulièrement efficace des outils, telle que la numérisation la produit, engendre des pratiques nouvelles, mais aussi des perceptions originales dont il convient de comprendre les possibilités pour de jeunes architectes dans l’activité de conception et son évolution.

Aussi, dans l’expérimentation pédagogique que nous avons menée, nous nous attardons essentiellement sur les logiques processuelles, les dispositifs cognitifs, émanant de l’usage des outils, en laissant volontairement de côté la description factuelle des productions à l’aide de tel ou tel outil qui nous semblerait maintenir la réflexion à un niveau purement instrumental. Cette question est importante : en effet, nous souhaitons former des étudiants non pas à une pure acquisition instrumentale, mais nous ambitionnons de leur permettre d’acquérir une autonomie, un regard critique et une approche culturelle au sens fort du terme, telle qu’elle est induite par une mutation paradigmatique majeure.

Le contenu pédagogique

Depuis deux ans, nous[30] proposons un groupe de projet de premier semestre de master 1, intitulé « Générations numériques », le sujet principal étant « L’enseignement de l’architecture à l’ère du numérique». Ceci permet d’aborder plusieurs aspects de la conception architecturale et de son enseignement, puisque l’objectif est bien, lors de cet exercice, de concevoir une école d’architecture (un lieu et ou dispositif d’enseignement) par et pour la génération numérique. Génération numérique, est pris ici dans la double acception du mot génération : une génération d’étudiants  qu’on peut qualifier de Digital Native, rompue aux outils numériques, plongée dans la société complexe, et une génération du projet à l’aide des outils numériques et des méthodes associées en insistant sur l’intérêt méthodologique d’une analogie avec les processus génératifs observés en biologie par exemple.

Ainsi pour la deuxième année consécutive les étudiants abordent cette problématique  et imaginent un nouveau lieu d’enseignement pour l’architecture sur l’ancien site de l’Université Expérimentale de Vincennes, comme une façon de renouveler les questionnements (Qu’apprend-on ? Et comment apprend-on aujourd’hui, à l’ère du numérique ?  Les processus de conception sont-ils transformés par l’apport de ces outils ?)  Peut-on les traduire concrètement dans un lieu qui fut en son temps emblématique pour repenser les cadres, les contenus et les méthodes du savoir il y a 40 ans. Par ailleurs, précisons qu’étant en situation d’enseignement nous décrirons des activités de conception, adoptant ainsi la position de Philippe Boudon qui établit une différence entre conception et projet. Selon lui, le projet appartient à l’univers professionnel, alors que la conception est une activité plus générique et pédagogique[31].

L’exercice proposé se déroule sur un semestre, les étudiants expérimentent par étapes successives différents modes opératoires :

  1. Collecte des données : usage d’un protocole
  2. S’emparer des données par l’expérience de la transformation
  3. Ecritures architecturales possibles
  4. Expérimentation matérielle

Ainsi l’élaboration d’un protocole de collecte de données et l’élaboration d’un modèle de transformation précède l’étape d’écriture architecturale. Un workshop d’une semaine clos le semestre avec une expérimentation réalisée par les étudiants sur le site du Bois de Vincennes. Les divers exercices, comme autant d’étapes distinctes du travail, ont été organisés par équipes de tailles variables, pouvant totalement se modifier d’un exercice à un autre. D’autre part toute la matière de travail collectée a été postée sur une plateforme d’échanges pour être partagée et réutilisée si nécessaire par tous les étudiants et à tout moment.

Il ne s’agit donc pas, au final, de produire « un projet » en mimant le travail d’agence. Il n’y a pas dans le présent cadre pédagogique « un produit, un auteur » mais des productions et des co-auteurs promouvant ainsi l’intelligence collective[32].

Aussi nous rendrons compte dans les annexes de quelques-uns des exercices produits sous des formes relativement indépendantes, chacun ayant nourri collectivement les exercices avals sans traçabilité linéaire. De fait chaque exercice doit pouvoir être appréhendé comme une expérimentation autonome, constituant un apport à une communauté de travail, en open-source pourrait-on dire.

Nous ne cherchons pas à démontrer l’effectivité d’un processus linéaire. Ainsi les deux projets présentés en phase d’écriture architecturale ne sont pas issus spécifiquement du travail d’une seule équipe identifiée de A à Z mais du partage collectif des informations constituées dans les phases précédentes. De même la matérialisation présentée, constituée lors du Workshop, et qui mobilise un groupe d’étudiants appartenant préalablement à des équipes différentes.

Il nous semble important d’insister sur ce point méthodique dans notre démarche pédagogique : il reflète de la conviction que les modalités de transaction avec la conception sont en train de muter profondément. Les informations, les savoirs, les savoir-faire, les organisations d’équipes, de groupes de collectifs mutent en permanence et la plasticité des moyens et méthodes est considérablement plus grande que par le passé. La fluidité des conditions de conception proposent des défis majeurs pour les jeunes générations. Ce à quoi elles doivent être préparées pour répondre et faire face, afin d’en tirer le meilleur.

Nous présentons ci-après le détail du contenu des quatre phases proposées dans cet exercice se déroulant sur un semestre, les exemples et illustrations des travaux des étudiants se trouvent en annexes.

Les quatre phases de l’exercice

Collecte des données – introduction à la méthode du protocole et à la question de la notation

Une première expérimentation sur site est proposée aux étudiants en tout début du processus. Pourquoi travailler à partir d’un protocole ? Ce dispositif, employé notamment par les artistes pour produire des situations originales, mais aussi par les scientifiques pour produire des connaissances, c’est à dire, pour les uns comme pour les autres, des données, nous est apparu pertinent. Nous souhaitions que les étudiants comprennent le sens attribué au mot data en les produisant eux-mêmes. Le phénomène des data a pris une telle ampleur désormais que leur utilisation devient omniprésente, obligatoire, et on le sait envahissante. Il est aussi important d’en resituer la portée que de se familiariser à leur usage[33].

Dans le cadre d’une phase initiale dans un objectif de collecte et de représentation d’informations, prenant en compte le terrain de travail, si l’accent est mis sur la perception in situ, se pose la question de comment produire de l’information, quelles informations faut-il retenir pour engager un processus de conception à l’aide des outils numériques ? Nous avons écarté d’emblée les analyses classiques pour lesquelles on collecte, presque dans l’automatisme le parcellaire, les voiries, les moyens de transport, les équipements à proximité, les bâtiments remarquables etc. ce qui ne permet pas de comprendre réellement « comment on produit de l’information ».

Cette démarche convoquant la notion de modèle est productrice de données. Le protocole dans sa radicalité méthodique est tout indiqué pour donner du sens à cet objectif puisqu’il nécessite, au regard d’une situation donnée, d’énoncer un ensemble de règles à suivre dans l’observation des phénomènes que l’on observe ou que l’on produit et qu’on analyse, mais aussi un ensemble de notations et de formes de notations pour enregistrer les informations. C’est donc une véritable expérience de production de data.
Les étudiants déterminent leur propre protocole de relevés sur site. Le terrain de Vincennes impose sa propre identité singulière, ses données spécifiques, qu’elles soient actuelles (le bois, les clairières…) ou passées (l’ancienne université).
De fait, le relevé des phénomènes sur le terrain est réalisé par tous les moyens disponibles aussi bien analogiques que numériques comme avec le projet Between chance and nature. Le propre corps augmenté (ou plus simplement appareillé) du concepteur devient capteur de son environnement.
Les data nécessitent un enregistrement (qui peut être un encodage numérique), mais doivent pouvoir être transcrites dans des langages adaptés aux usages précis pour lesquelles elles sont requises. Les modes de notation sont donc stratégiques : les dispositifs graphiques adoptés, en l’occurrence dans le cadre de la présente activité projectuelle, doivent transcrire les résultats d’analyse en articulant des données stables. Le projet Surface of Wind donne un exemple de cette articulation de donnée par le truchement de la carte du site avec ses clairières, ses chemins, ses plantations, et des informations plus mouvantes comme la lumière, le bruit, le vent ou des points de vue, des itinéraires établis selon des règles préalablement définis mais soumis aux aléas du terrain. C’est l’interaction de ces différents paramètres qui permet de constituer des données caractéristiques et spécifiques d’un lieu et d’une temporalité précis (cardinalité et calendarité selon les termes de Bernard Stiegler[34])
Nous avons pu constater que les diagrammes mis au point par les divers groupes empruntent très exactement la logique paramétrique qui permet tout à la fois la programmation de génération de formes et leur évolution.
Le protocole est donc exploré et exploité comme producteur d’information et comme producteur d’enregistrement de l’information. Les étudiants expérimentent un dispositif cohérent : ils inventent des modalités de production, des modes de traduction et de transcription.

La transformation

Comment  passer de la collecte, de l’enregistrement et de la compréhension des données à leur exploitation ? Les outils paramétriques, en particulier, nécessitent la compréhension des manipulations qu’on effectue afin de conduire précisément son travail. De quoi part-on ? Comment procède-t-on et dans quel but ?.

L’exercice de la transformation permet de faire l’expérience de ce processus qui impose de définir clairement l’état initial, de construire des règles et des étapes qui permettent d’aboutir à un résultat qui comme avec le projet Wool kniting, n’est pas le fruit du pur hasard (sauf à construire les règles adéquates à un résultat  de ce type, ce qui est aussi possible mais plus complexe).

Pour cet exercice, l’observation d’un véritable processus de transformation est nécessaire. Celle-ci doit pouvoir être dé-construite et reconstruite. L’analyse du processus fait l’objet d’une transcription-notation comme dans Yun-no-ri ou Expo-up au même titre que le travail précédent sur le protocole, et pour des raisons homothétiques.

Ecriture architecturale

Faisant suite aux deux premières étapes de collecte de données à l’aide d’un protocole, puis de la structuration et corrélation de ces mêmes données par l’utilisation d’un modèle de transformation, le processus se poursuit par la phase d’écriture architecturale. Ce continuum informationnel et cognitif sollicite très précisément la capacité d’invention[35] des concepteurs et le place dans une posture de méta-conception comme avec le projet Generative Machine. Comment le projet architectural est-il informé par ces modalités opératoires? Cette situation, inconfortable, conforte pourtant ce que nous savons déjà : la forme architecturale n’est pas stable mais mouvante. Elle est inscrite dans un flux, elle est un instant significatif et conjoncturel dans une continuité et une variabilité, elle entretient une relation élastique aux choses en reliant les événements, en suscitant les potentiels d’usage et d’adaptation environnementale (systémique − voir le projet H3 Head Heart Hand).
Ceci touche le processus de conception lui-même, mais aussi les modalités d’enseignement dans un contexte de plus en plus ouvert, de plus en plus fluctuant, où l’information se stocke, se partage, transforme, structure et se transforme à nouveau. Le sujet de ce troisième exercice est donc bien tout à la fois de traiter du contenant que du contenu, selon les mêmes cadres paradigmatiques, comme par exemple dans le projet Garage of Knowledge. Ainsi il est proposé de concevoir une école d’architecture sur le site du Bois de Vincennes en lieu et place de l’Université de Vincennes disparue.

Workshop – Matérialisation

A l’issue de cet essai d’écriture architecturale il nous a paru important de consacrer une semaine à une expérimentation concrète. A partir d’un focus sur un aspect de diverses propositions, il s’agissait de réaliser et de tester in situ un élément matériel précis comme dans le projet , comme dans le projet Origami par exemple. Nous sommes donc retournés sur le site de Vincennes un matin pour installer et expérimenter les objets fabriqués durant la semaine précédente.

Analyse et conclusion

Nous avons vu de quelles façons l’ère du numérique fait des « digital native  »« des personnes dont les capacités perceptives et cognitives sont renouvelées.
L’expérimentation pédagogique présentée montre comment en tant qu’enseignants nous prenons en compte ces changements, dans le but que les étudiants inventent et testent de nouvelles modalités de conception adaptées. Nous avons conscience que ces résultats certes partiels nécessitent d’être réutilisés, partagés, commentés, hybridés. C’est pourquoi nous avons constitué un blog[36], qui permet d’une année sur l’autre de consulter et d’analyser les résultats antérieurs ceci de manière cumulative et ainsi de progresser à partir de cet embryon de culture commune. De plus le temps pédagogique d’un semestre est court et le profil des étudiants très hétérogènes. Nous avons constatés une première phase déstabilisante pour les étudiants qui est la plus part du temps dépassée par la compréhension de la méthodologie proposée, s’appuyant sur la rigueur de raisonnement des procédures. L’hybridation des techniques analogiques et numériques, la création de leurs propres outils et procédures de relevé de phénomènes, leur permet d’acquérir une certaine plasticité intellectuelle ouvrant des positions possibles et nécessaires, devant les mutations de leur exercice professionnel futur. Le plaisir d’inventer et de construire un récit ludique et plausible a rapidement succédé à la première phase de déstabilisation. Afin d’accompagner les étudiants du groupe de projet Générations numériques nous avons utilisé de manière implicite ou explicite des processus leur permettant d’avancer et de démythifier de manière décomplexée les processus qu’ils avaient utilisés jusqu’alors dans leurs modes de composition du projet sans être particulièrement conscients de ce qu’ils portaient comme spécificités méthodologique, processuelle et esthétique. Il s’agit dans le cadre pédagogique que nous avons défini d’articuler l’aisance et la vivacité conceptuelle qu’autorise cette méthodologie de projet avec un vocabulaire formel de morphologie porté par la culture de la géométrie[37] dispensée dès la première année ainsi qu’en master et déployées par les outils informatiques disponibles de nos jours notamment ceux de la modélisation paramétrique[38].

Lors de ces deux années d’expérimentation pédagogique beaucoup de sujets à approfondir ont été mis au jour, émanant directement ou indirectement de l’utilisation des outils, ou de la méthode processuelle même. Les processus de conception qui en résultent se déploient ainsi, portés au service du projet et bien au-delà des seuls outils numériques dont ils s’inspirent comme autant d’ontologies conceptuelles.
Face au temps continu, indéfini et sans fin[39] de la phase expérimentale offerte par les outils paramétriques[40], le foisonnement des possibles nécessite d’être conscientisé et ce continuum calculatoire et expérimental doit pouvoir être cadré et interrompu de façon assumée et mature. Une telle décision devenant ainsi principe fondateur décisif et discret de l’acte de concevoir.
Nous avons bien conscience par ailleurs que, compte tenu de la vitesse d’introduction des innovations technologiques dans tous les secteurs d’activité il convient, très vite, d’envisager de porter cette démarche à l’épreuve des outils d’intelligence artificielle, en particulier ceux de la supervision humaine [41].
D’une manière générale, notre objectif, relayant ainsi d’autres initiatives, plus anciennes ou contemporaines dans d’autres contextes, d’autres lieux d’enseignement et de recherche, est d’explorer les aspects culturels engendrés, portés, développés par les technologies du numérique, en ce qu’ils interrogent, stimulent, modifient les cadres cognitifs, référentiels, processuels, esthétiques de la conception architecturale. Le séminaire doctoral Architecture et Culture Numérique (ACN) organisé au sein du Laboratoire EVCAU à l’ENSA Paris Val de Seine s’inscrit dans cette visée. Le développement concomitant d’un programme pédagogique d’initiation en licence est en cours.

Annexes: Extrait de travaux d’étudiants

Références

Alpaydin, Ethem. Machine learning Cambridge Massachusetts The Mit Press. Institute of technology, 2016.

Bollier, David. La renaissance des communs C L Mayer, sous licence Creative Commons, 2014.

Berque, Augustin.La forclusion du travail médialIn Paris: Belin, L’Espace géographique, XXXIV 2005, 1, p81-p90.

Borillo. Informatique pour les sciences de l’homme éd. P. Mardaga,1984.

Boudon, Philippe. « La question institutionnelle, pédagogique et scientifique des formations doctorales en architecture.»In ouvrage collectif,Recherche architecturale, urbaine et paysagère, Vers un doctorat en Architecture., Paris : Ministère de la Culture, 2005.

Boudon, Philippe, Pousin, Frédéric. Figures de la conception architecturale,. Bordas 1988.

Couchot, Edmont. La technologie dans l’art.. éd Chambon, 1973.

Fleck, Ludwik. Genèse et développement d’un fait scientifique. éd Flamarion, 2008.

Guattari, Félix . Cartographies schizoanalytiques. Paris éd Galilée, 1989.

Hansen, Mark B.N. Feed Forward On the Future of Twenty-first-Century Media.. Chicago éd University of Chicago Press, 2015.

Heidegger, Martin. Essais et conférences La question de la technique Paris, Gallimard, 1958.

Giedion, Siegfried. Espace Temps Architecture Denoël, 1990.

Khun, Thomas. La structure des révolutions scientifiques. Flammarion, 1983.

Lebahar, Jean Charles. Le dessin d’architecte, simulation graphique et réduction d’incertitude. Parenthèses, 1983.

Levy, Pierre. L’intelligence collectiveMaspero 1981

Levy, Pierre. Authier, Michel Les arbres de connaissancesLa Découverte, 1992.

M2I Bulletin des séminaires pédagogiques Architecture et Méthodologies. N°2 Mars 1974

Magerand, Jean. Mortamais, Elizabeth. Vers la Cité hypermédiate. Du modernisme-fossile à l’hypercité-immédiateL’harmattan, 2003

W.J. Mitchell. The logic of architectureMIT press 1989

Peneau, J.P. «A propos d’une question sur l’aspect innovant de l’allocation spatiale» Enseignant UPA Nantes, M2I Bulletin des séminaires pédagogiques Architecture et Méthodologies. N°2 Mars 1974

Simondon, Gilbert. Imagination et InventionLa Transparence, 2008

Stiegler, Bernard. La technique et le temps, tomes 1,2,3 Galilée, La Cité des sciences et de l’industrie, 1994,1996,2001.

Terracol, Pascal. Vocabulaire de géométrie pour l’architecture, Paris, Presses des ponts. 2017, 282p.

W.J. Mitchell.Simple form generation procedure International Conference on computer in Architecture, University of York, Conférence 20-22 sept, 1972

[1] [Giedion 1990]
[2][Kuhn 1983] et [Fleck 2008]
[3][Giedion 1990 p. 255.]
[4][Giedion Siegfried opus cit, p.255.]
[5]RFID pour Radio Frequency Identification, méthode de radio-identification permettant de mémoriser et récupérer des données à distance.
[6]GPS pour Global Positioning System, système de positionnement par satellite appartenant aux Etats Unis.
[7][Magerand-Mortamais, 2005]
[8]Arduino, marque de carte électronique sous licence libre (sauf le microcontrôleur)
[9][Guattari, F., 1989] p.9.
[10][Berque 2005] En 2005 Augustin Berque substituait au couple corps animal – corps
social mis en lumière par Leroi- Gourhan la notion de corps médial réalisant ainsi une relation de l’homme à son environnement éco-techno-symbolique « ce corps médial constitue les milieux humains dont l’ensemble forme l’écoumène, c’est-à-dire la relation de l’humanité à l’étendue terrestre ». Ibid.
[11][Mark B. N. Hansen 2015] dans Feed Forward. On the Future of Twenty-First-Century Media. Chicago: University of Chicago Press, 2015.

[12]12Nous utilisons ici indifféremment le terme Big Data ou Data. Pour l’évolution et l’apparition de cet état de fait, voir : Boyd, Dana; Crawford, Kate (21 September 2011). « Six Provocations for Big Data ». Social Science Research Network: A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society. doi:10.2139/ssrn.1926431
[13] cf supra
[14] Selon Heidegger, la technique arraisonne [Gestell] la nature, et cette illusion de l’œuvre humaine omniprésente conduit à l’oubli de l’être [Wesen] [Heidegger 1958] p. 36.
[15] Egalement nommée dans le monde anglo-saxon Computer Science, l’informatique est la science du traitement de l’information
[16] Gordon Moore décrit la croissance exponentielle de la puissance de calcul des processeurs au fil du développement des nouvelles générations de circuits : doublée tous les 18 mois, de 8 Mhz en 1984, nous sommes à plus de 8 Ghz de fréquence d’horloge.
[17] Grasshopper est l’un des Plugins du logiciel de modélisation 3D Rhinoceros
[18] Le prototypage rapide intègre les dispositifs d’impression 3D et de découpe laser
utilisés par les FabLab, voir https://www.fablabs.io/labs/map.
[19][Mitchell 1972]
[20]Séminaire Allocation Spatiale UPA de Lyon 28-29-30 novembre 1973 à l’Initiative du centre Mathématiques – Méthodologie – Informatique de l’Institut de l’Environnement et d’enseignants des unités pédagogiques d’architecture de Lyon, Clermont-Ferrand et Grenoble. [M2I 1974] pp 5- 57
[21] A propos d’une question sur l’aspect innovant de l’allocation spatiale. J.P. Peneau, Enseignant UPA Nantes. Ibid. pp.: 25- 43.
[22] CIMA Centre de Méthodologie, Mathématique et Informatique,http://histoire3d.siggraph.org/index.php/CIMA
[23]UP6 pour Unité pédagogique d’architecture n°6
[24]Outils limités de par leur mémoire adressable et les temps de calcul alors disponibles.
[25][Alpaydin 2016] pp ; 173 ; 181. Classification : Assignation d’une instance à un ensemble
de classes. Quant au paradigme de supervision il fait appel à un acteur humain afin de lever les ambiguïtés ou les incohérences sémantiques proposées par les systèmes d’IA. C’est en ce sens que le rôle de l’architecte se déplacera afin de composer et d’effectuer des choix parmi le florilège d’assertions émanant à terme de ces systèmes.
[26][Boudon, Pousin 1988, 2005 ] voir aussi [Lebahar 1983]
[27][Borillo 1984 ][ Mitchell, 1972]
[28][Boudon, Pousin 1988]
[29][Couchot 1998]
[30]Il s’agit de l’équipe enseignante pluridisciplinaire: Elizabeth Mortamais (VT), Yann
Blanchi (TPCAU) Christian Morandi (ATR), Pascal Terracol(STA).
[31][Boudon Ph.2005 pp. 28 à 38.]
[32]Ceci ne fait que reprendre les constats que nous pouvons faire dans la vie professionnelle : la complexité des contextes, des commandes et des opérations contemporaines nécessitent une collaboration lucide entre les différents acteurs de ce que l’on nomme généralement l’acte de bâtir et d’aménager.
[33]Le séminaire doctoral ACN que nous co-animons au sein du laboratoire EVCAU se consacre depuis 4 ans à approfondir la nature et les enjeux des datas. Par ailleurs des expositions, telle que celles qui furent récemment organisées à Electra-EDF, des colloques, alimentent l’engouement, la fascination pour ce sujet mais aussi le regard critique nécessaire.
[34][Bernard Stiegler, 1994]
[35][Simondon G. 2008]
[36]http://paris2seoul.research-unit.net/
[37][Terracol 2017]
[38] Grasshopper et ses multiples Plugins comme LunchBox ou WeaverBird’s ou Dynamo.
[39]Formalisé par Greg Lynn dès 1999 dans Animate Form et déplaçant les limites conceptuelles de l’acte d’édifier.
[40]Dans lequel l’expression d’un modèle numérique trouve – au-delà des multiples configurations possibles – une signature singulière permettant de figer une combinatoire de paramètres multiples et souvent complexes,
[41] Supervising:l’un des paradigmes stratégiques décrit par Machine Learning [Alpaydin2016 p.181] et mis en exergue lors du séminaire S7 Intelligence artificielle -Recherche prospective sur les impacts des sciences cognitives sur la conception du projet architectural UE Outils mathématiques et informatiques, Pascal Terracol et David Serero. http://www.architectureintelligence.net/

Submit your comment

Please enter your name

Your name is required

Please enter a valid email address

An email address is required

Please enter your message

Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Partage à l'Identique 2.0 France.
Designed by WPSHOWER
Powered by WordPress
ISSN : 2647-8447