Chronique | L’architecte et l’analyse ‘augmentée’ : quelle démarche de projet ?

Comment appréhender les notions de probabilité et d’incertitude puisque la ville des données existe ? Dans le cadre d’un projet, passer ces datas au filtre de l’analyse prédictive est-elle une manière possible de leur donner du sens ? Quelles problématiques naissent au croisement de ces deux éléments ?

article publié dans Le Courrier de l’Archtecte (25-04-2012) : http://www.lecourrierdelarchitecte.com/article_3114

Des données qui n’étaient pas disponibles jusqu’à récemment peuvent être aujourd’hui utilisées pour produire la ville*. Quid de leur utilisation potentielle ? Que seraient des outils prédictifs de projet ? Serait-ce un outil de modélisation qui récolte en temps réel les informations pertinentes : contexte, contraintes, programme et anticipe la phase de formalisation des projets en proposant un champ de possibles ? Ou bien les pistes de réflexion sont-elles ailleurs ?

Sur l’aide à la décision : système expert et rôle de l’architecte

Aujourd’hui, ceux qui aident à la décision sont les experts de tous types, parmi lesquels figurent les architectes. L’expert, s’il se situe en scientifique, apporte expérience et capacité de synthèse et fournit, en matière d’avenir, des outils de prédiction. Lorsqu’il se positionne en concepteur, il produit des outils d’anticipation.

L’analyse prédictive des données est un outil d’aide à la décision qui, non seulement permet d’identifier un univers de possibles mais aussi de l’enrichir. Elle tend donc à réinterroger le rôle de l’expert. Si les outils numériques sont plus rapides et plus performants que lui sur la partie synthèse des données et identification du champ des possibles, que lui reste-t-il alors ?

Deux champs de repositionnement : l’un en amont de l’analyse prédictive et l’autre en aval.

En aval du traitement des datas, l’expert a à déterminer la manière dont le résultat de l’analyse prédictive est mis à disposition des destinataires de l’expertise. C’est ce qu’ont saisi parfaitement les étudiants de l’ESAG-Penninghen, dont nous citions les travaux sur le thème We-are-data*. Tandis qu’une équipe a travaillé sur la visualisation des émotions véhiculées au sein du flux des ‘twitts’, une autre a réfléchi à une manière possible de donner à lire, poétiquement, l’identité numérique que chacun de nous véhicule bon gré mal gré. Une autre encore a imaginé un outil pour déambulation urbaine axée sur la découverte de lieux inconnus mais susceptibles de nous plaire… une déambulation urbaine prédictive, en quelque sorte…

L’enjeu des modalités du «donner à lire», de l’appropriation, de l »utilisabilité’ des données est de toute évidence primordial. Des journalistes ont ainsi planché sur la question lorsque Wikileaks a mis brutalement en évidence la difficulté de traiter une nuée d’informations et de faire émerger du sens à partir de la masse.

L’architecte et l’urbaniste font face, eux aussi, à cette question vertigineuse. Leur domaine d’intervention n’est ni le graphisme ni la mise en forme de l’information mais bien la ville. Pour tirer parti de la multitude de données urbaines et s’y repérer en leur donnant du sens, les géographes produisent des cartes SIG, les graphistes génèrent des images sur Internet ou sur Smartphone. Se pose alors la question de ce que peuvent en tirer les architectes.

S’il choisit de s’emparer de l’analyse prédictive des données en amont, l’expert est celui qui définit la manière dont les algorithmes numériques vont scanner le «data-écosystème», ce qu’ils vont en extraire. Intervient également la problématique des modalités de recoupement utiles pour en tirer les analyses prédictives. Tapan Patel, spécialiste de l’analyse prédictive dans le champ notamment du marketing, explique que «les data miners et statisticiens consacrent 70% à 80% de leur temps à la préparation des données». Il ajoute : «La gestion des données, l’accès à différentes sources de données, leur nettoyage et leur traitement pour qu’elles soient prêtes à être analysées sont des éléments critiques pour n’importe quel type de projet d’analyse».

Il y a donc une expertise du choix des données, de la détermination de ce qu’il est pertinent de croiser. Alors, pour l’architecte et l’urbaniste, les nouvelles compétences pour établir un diagnostic urbain résident-elles dans la capacité de déterminer les datas à confronter ?

La compétence de l’architecte est fondée, depuis longtemps, sur la connaissance des modalités de confrontation d’informations hétérogènes, sur leur synthèse et sur leur transformation en dispositifs architecturaux, fonctionnels, techniques. Aujourd’hui, l’analyse d’un quartier se fait en additionnant savamment typo-morphologie (c’est-à-dire synthèse des données physiques et visuelles), sociologie (données sur l’usage), génie urbain (données sur le fonctionnement), écologie (données sur les milieux), économie (données sur l’évolution des valeurs marchandes), etc.

Sauf que maintenant, la data remplace la donnée. Nécessairement, l’enjeu du choix des informations et des grilles de lecture est différent. Et si l’analyse d’un quartier, pour échapper à l’approximation et devenir prédictive, nécessitait désormais de savoir livrer pêle-mêle aux algorithmes l’occupation du sol, l’état des constructions, le type de boulangeries présentes, les habitudes culturelles des habitants, leurs faculté de changer d’avis avec le temps ?

Dès lors est interrogé le sens des spécificités disciplinaires, lorsque soudain se mélangent, de manière inhabituelle, inattendue et fructueuse, dans le shaker algorithmique, toutes ces données jusqu’à présent bien rangées en catégories distinctes. Dans cette situation, où est l’expert ? Que devient-il alors que chacun semble dépossédé de l’exclusivité de son domaine au profit de connaissances émergentes, réinventées à chaque analyse prédictive ?

Nous voici devant un constat récurrent dès que l’on parle de numérique : celui de la perte de sens, dans ce paradigme, d’un certain type de cloisonnement des disciplines.

Une «analyse augmentée», socle pour quelle démarche de projet ?

Prédire, anticiper et projeter : quelle relation aujourd’hui et quelle relation nouvelle ? Aujourd’hui, la méthode classique de travail, aussi bien en urbanisme qu’en architecture et en paysage, est la trilogie ‘diagnostic / objectifs / actions’ ou encore ‘site & programme / parti pris / projet’.

Dans ce cadre, l’expression-même d’«analyse prédictive» ressemble presque à un oxymore. Elle opère en quelque sorte une synthèse en temps réel entre le projet et l’analyse. Elle propose de constater simultanément T et «probable T+1», présent et futur, existant et potentiel. Elle décrit un présent qui porte le germe du futur ; ce germe est visible en même temps qu’on regarde la graine. C’est le rapport au temps qui change, avec les espoirs qu’il suscite et les alternatives peut-être angoissantes qu’il laisse parfois entrevoir.

La problématique est ensuite la suivante : bien qu’«augmentée», l’analyse prédictive des données reste une analyse. Or, le propre de l’architecte ou de l’urbaniste est bien de dépasser l’analyse, d’en faire un outil au service du projet. C’est cette démarche de conception qui le différencie fondamentalement du géographe et de tout autre scientifique.

Nous avions parlé de paradigme de l’anticipation, avec ce que cette notion a de spécialement ‘interpellant’ pour nous, concepteurs. L’anticipation c’est l’invention, c’est le fait de prendre les devants. C’est échafauder des hypothèses et les développer sur la base de choix plus ou moins arbitraires. Voilà qui évoque sérieusement la démarche du concepteur.

De même, l’analyse prédictive superpose au présent le champ des probables, qui est en réalité une partie du champ des possibles. Or, nous savons par expérience que le concepteur ne cesse d’explorer ce champ, d’y choisir une piste, d’explorer sur cette piste à nouveau le champ des possibles, etc.

Avec l’analyse prédictive, c’est l’algorithme statistique qui crée le lien entre l’analyse et le «projet», l’actuel et le futur. Chez le concepteur, c’est une somme de décisions qui joue ce rôle. La prédiction est basée sur des hypothèses. Le travail de concepteur aussi. La différence est que les premières ne sont pas formulées, les secondes le sont.

Alors, entre le concepteur et l’algorithme : complémentarité, rivalité ?

Tapan Patel aborde la question en d’autres termes : «Comment pouvez-vous attribuer une qualité à un tweet ? Comment pouvez-vous déterminer qui est représentatif sur les réseaux sociaux ? En fait, les analyses prédictives sont une science qui vous permettra d’aller du point A au point B mais deviennent un art quand vous faites appel à l’expertise professionnelle de la personne qui prendra, en bout de course, la décision et qui devra tenir compte de l’importance du parasitage. Finalement, les meilleures analyses prédictives sont le fruit d’une combinaison d’art et de science(…)»**. Cap donc sur la convergence de l’objectif et du subjectif.

Peut-être faut-il, en outre, postuler que, pour le concepteur, la question est moins de prédire, de savoir quelle évolution va connaître le système, que de déterminer quel est l’état qu’il doit chercher à atteindre. Le but est avant tout de fixer des objectifs et de créer les conditions de leur réalisation, de leur «probabilisation». La fascination de la prévision fait perdre de vue cet aspect pourtant fondateur du projet. Il est possible aujourd’hui d’y trouver une source d’inspiration.

L’analyse prédictive des données est pour le concepteur moins une démarche à caractère ‘médiumnique’ qu’une démarche de sensibilisation aux possibles, d’ouverture et de cadrage de ce champ, à utiliser ensuite soit à contre-courant soit dans le sens pré-tracé.

Enfin, dès lors qu’on adopte une approche complexe des phénomènes, les prédictions perdent la valeur de nécessité primordiale qu’on leur attribue dans une posture cartésienne. Elles n’apportent pas de valeur ajoutée. Au contraire, elles peuvent avoir des effets déstabilisateurs si un degré de certitude trop important leur est attribué. H.A. Simon le démontre dans son ouvrage Les sciences de l’artificiel. Ce que l’on détecte ici est un décalage entre l’analyse prédictive et l’utilisation qu’on attend de ce que l’on considère comme ses ‘résultats’.

Notre culture cartésienne nous pousse à utiliser ces ‘résultats’ dans une visée plutôt déterministe, selon les convictions et les espoirs d’un paradigme dominé par la certitude et le positivisme. En revanche, l’analyse complexe, celle des «Sciences de la complexité», réclame des logiques, des modes et des outils d’un paradigme dominé entre autres par les notions de probabilité et d’incertitude. La corrélation statistique et individuelle s’effectue automatiquement : le groupe et l’individu oeuvrent, en temps réel, chacun identifié et confondu.

Au bilan la ville de l’analyse prédictive des données nous demande de changer fondamentalement de paradigme et de revoir nos catégories de pensée, nos catégories pour penser l’architecture. Elle nous demande aussi de nous emparer de ces méthodes et de ces nouveaux outils pour en faire de véritables outils de projet.

Claire Bailly

* Voir la chronique précédente ‘La ville des données est bonne à prendre’
** Tapan Patel in L’Atelier – San Francisco, 20 mars 2012