L'IA : accompagner l'architecte
Le chercheur et data scientist explore la manière dont l’IA permet aux architectes d’accompagner et augmenter leur pratique. Un petit avant-goût d’un ouvrage paru en mars 2021 aux éditions du Moniteur.
Face aux promesses des prophètes de l’intelligence artificielle et au marketing des grands acteurs économiques promouvant la smart city comme solution aux maux urbains, Jérôme Denis et David Pontille rappellent l’irréductible matérialité de la ville, ainsi que sa fragilité. Démystifiant ce qu’ils perçoivent comme un « néo-positivisme » de la data, ils relèvent que les données n’existent pas en tant que telles, et qu’elles nécessitent une production, puis un entretien, coûteux. De ce fait, les données ne sont jamais neutres, mais possèdent une dimension fondamentalement politique. La compréhension de ce cadre les invite ainsi à promouvoir un paradigme de la maintenance et de la fragilité, en lieu et place de celui de la durabilité et de la résilience, plus courant dans nos approches de l’urbain.
Jérôme Denis : Nous avons en effet commencé à travailler sur les questions urbaines en entrant par cet angle de la maintenance, le sujet des travailleurs de la ville, avec en arrière plan la méta-question qui nous anime depuis le début de nos travaux, à savoir : qu’est-ce que c’est que le travail ? Cela recouvre les travailleurs dits « essentiels », qui ont été soudainement mis en lumière par la pandémie de Covid – c’est très flagrant pour les gens du nettoyage par exemple –, mais de façon générale tous ceux qui fabriquent et entretiennent la ville. De ce point de vue, la ville est davantage qu’un espace de circulation, d’habitation, contenant des espaces de travail, nous l’abordons aussi comme un espace de travail en soi, ce qui est très intéressant pour comprendre comment elle se dessine.
David Pontille : Nos travaux consistent à suivre les mainteneurs, l’activité de tous ces gens qui font exister la ville au jour le jour, assurant qu’elle soit vivable et qu’elle fonctionne à peu près, ce qui est un travail absolument continu. Cette approche nous permet d’aborder la ville sous l’angle du soin, au sens où non seulement c’est un espace de travail, mais également quelque chose dont il faut prendre soin pour pouvoir soi-même continuer à travailler dessus, et pour que les autres puissent s’en servir d’espace de circulation et d’habitation, sinon cela s’effrite, cela tombe, avant de ne plus marcher du tout.
Jérôme Denis : Pour vous donner une idée de la matérialité de la ville, avec Samuel Goëta, qui a réalisé l’une des premières thèses sur l’histoire de l’open data en France dans les collectivités, nous sommes allés à la rencontre de ceux qui produisaient ces données, et notamment le PC de sécurité de la préfecture de police de Paris, qui gère le trafic, les feux, les embouteillages etc. Ils nous expliquaient que sur leur tableau de bord dans lequel ils voient l’ensemble des feux de circulation et des capteurs de circulation, ils ont un code couleur. Quand c’est vert c’est dégagé, rouge quand il y a des embouteillages, et violet… quand c’est cassé. En fait un tiers des capteurs sont cassés, mais ils doivent faire avec… Quand on parle de smart city, ce fantasme d’un territoire bardé de capteurs, produisant des myriades de données, il ne faut pas oublier cette fragilité inhérente, parce que la ville est un environnement violent, pour de nombreuses raisons, le trafic, les camions, les incivilités, les conditions météorologiques extrêmes etc. Le travail et la matérialité sont donc les deux aspects principaux de cette maintenance qui nous semble cruciale pour comprendre la ville.
Jérôme Denis : Dépasser l’idée de résilience est en effet un point central de nos réflexions, car ce modèle nous semble très problématique, notamment appliqué à la ville. Il se définit comme la résistance à un choc et le retour à un état normal après ce choc, alors qu’à l’opposé la fragilité est un état permanent, tout comme la maintenance. La notion de résilience urbaine a souvent été critiquée, notamment parce qu’un aspect majeur du travail de préparation à la résilience est de définir et isoler des points stratégiques qui doivent « tenir », ce qui conduit souvent à négliger une partie des travaux très quotidiens qui font qu’une ville continue d’exister grâce à toutes ces « petites » activités, tous ces « petits » travailleurs. Par ailleurs, cela laisse entendre qu’il y aurait fondamentalement un état de d’optimum, ponctuellement rompu et auquel on reviendrait à un moment donné, alors que la fragilité s’étend au-delà de cette idée d’un équilibre ou d’un ordre préexistant qu’il s’agirait de rétablir.
C’est également une manière d’assumer le fait que la matérialité de la ville est sans arrêt en mutation, que c’est une matière vivante. Évidemment, il y a de grands accidents, des attentats, des inondations, des choses qui sont qui marquantes, mais au quotidien la matière urbaine reste en transformation. Cela permet de saisir cette dimension de fragilité aussi bien politique que pratique, absolument cruciale.
David Pontille : Adhérer à cette définition de la fragilité suppose de faire un geste qui n’est pas naturel, puisqu’elle est la plupart du temps perçue comme une faiblesse, alors que nous avons la conviction qu’il faut la comprendre dans un sens positif. L’urbain est constamment dans un état de fragilité, qui loin d’une faiblesse constitue bien une de ces qualités au sens matériel. Nous devons accompagner cette fragilité, pour la maintenir, éviter qu’elle ne s’aggrave, mais également pour la bonifier. Cette approche rejoint les travaux sur le care, où il ne s’agit plus de considérer la maladie comme un choc qui nous déstabiliserait, ou un écart à une situation normale, mais bien comme notre état naturel.
La résilience est un modèle psychologique élaboré après la Shoah, alors que l’on cherchait des critères, des manières de mesurer comment des gens qui avaient tout pour s’effondrer ont survécu, y compris psychiquement. Ces notions ont ensuite été déclinées à la ville par les militaires notamment, qui cherchaient à définir les infrastructures critiques dans la perspective de guerres à venir : les ponts, les infrastructures énergétiques, les systèmes de communication… Face à ces aspects très techniques, voire martiaux, la fragilité c’est la vie, le vivant.
Jérôme Denis : Tout à fait, la durabilité entre bien sûr en ligne de compte, mais pour nous le paradigme essentiel est bien fragilité/maintenance. Cela conduit par exemple à s’interroger sur ce que cela veut dire de designer une chose dont nous savons qu’elle est fragile, ce qui suppose de prendre en considération le fait que l’objet va être utilisé, usé, puis subir des travaux de maintenance. Hilary Sample montre bien dans son ouvrage Maintenance ArchitectureMIT press, 2016. à quel point cet aspect est négligé par les architectes par exemple. Elle s’appuie notamment sur des photographies pour montrer la façon dont l’architecture passe son temps à faire disparaître les mainteneurs, comment l’obsession pour le verre et tout le minimalisme en architecture repose à la fois sur un processus d’effacement des mainteneurs et sur une prétention à investir dans la durabilité par le seul design. Elle fait notamment une petite histoire des nacelles qui ont été inventées pour que les gens qui nettoient le verre des façades restent à leur place et ne rencontrent jamais les gens des bureaux, en restant relativement invisibles tout en étant très visibles.
Dans le même esprit, vous avez également les travaux extraordinaires de Ila Bêka et Louise Lemoine, qui ont réalisé au moins trois films sur les mainteneurs, notamment celui très connu sur la maison conçue par Rem Koolhaas à BordeauxKoolhaas housewife, 2008.. Le problème pour Koolhaas ce n’est pas la fragilité, c’est qu’il y a des gens comme cette femme de ménage qui viennent et qui s’occupent de la maison d’une façon qui n’est forcément pas tout à fait celle qu’il imaginait, comme si l’entretien était un impensé du bâtiment. Bêka et Lemoine essaient de montrer au contraire que les mainteneurs sont des usagers essentiels de ces espaces, ce qui rejoint nos réflexions sur le travail. Ils ont également réalisé un film sur les cordistes qui entretiennent le musée Guggenheim à BilbaoGehry’s Vertigo, 2013.. Ce n’est pas du tout un regard misérabiliste, c’est un défi pour ces travailleurs, ils adorent leur activité. Le film montre en revanche à quel point ces espaces spectaculaires n’ont pas été pensés pour être entretenus. Il y a dans ce type de gestes architecturaux une forme de fantasme de la pureté, de la solidité et de la propreté qui fait l’impasse sur la question même de la maintenance.
Jérôme Denis : J’ai l’impression que la smart city disparaît un peu de la littérature, notamment depuis que Google a abandonné son projet Sidewalk à Toronto. Je crois que ce qui se dessine en revanche, c’est un nouvel équilibre des données, entre la poussée de l’open data et les données propriétaires, entre les opérateurs qui produisent massivement de la donnée, mais qui rechignent à la partager, du type Waze, Uber etc., et les données citoyennes, produites ou contre-produites par des acteurs comme OpenStreetMap. Ce mouvement pour des données ouvertes et citoyennes a notamment une façon de faire exister des problèmes via des projets locaux qui me fait penser à du proto-urbanisme tactique revisité par les institutions. C’est un aspect qui re-spécifie ce que c’est que la ville numérique par rapport à ce qu’on nous a « vendu » il y a quelques années autour des grands projets de smart city…
David Pontille : Pour explorer ces expérimentations urbaines, nous avons lancé il y a cinq ans au CSI un programme d’étude sur la ville et la ville numérique, sans justement adopter la notion de smart city, de façon à aborder le problème différemment. Cela nous a permis de comprendre que la notion de smart city n’est pas née du monde de la recherche urbaine mais d’acteurs privés comme Cisco, qui la promeuvent car cela leur permet de vendre des services. Ce n’est qu’ensuite que c’est devenu une notion qui a été académiquement travaillée, avec des débats forts entre « pro » et « anti » smart city. La notion d’expérimentation urbaine nous permettait de travailler sur des dispositifs urbains qui génèrent eux aussi de l’information, souvent couplés à du numérique, des capteurs, mais pas seulement, car la ville reste complexe, l’expérimentation ne se limite pas à la seule vision des grands acteurs de la tech.
Jérôme Denis : Cela recoupe en effet les approches les plus enthousiastes de la smart city, qui reposent sur l’idée première que la solution est dans les données. Mais si nous creusons un peu nous nous rendons vite compte que pour ces acteurs du numérique et du big data, la donnée est au contraire le problème : de quelle type de donnée disposons-nous ? De quelles données aurions-nous besoin ? Comment obtenir de bonnes données ? Ce que nous appelons le « néo-positivisme de la donnée », c’est toute la tendance que nous retrouvons chez les vendeurs de ces solutions, qui tentent d’ancrer l’idée que nous serions assis sur un puits de pétrole de données qui permettrait de résoudre presque tous les problèmes de la ville. De ce point de vue, le postulat néo-positiviste c’est que les données existent et que ce qui manque ce serait leur traitement. Mais de fait, une bonne part des start up qui se lancent avec un projet de data urbaine fait rapidement faillite parce qu’ils n’y a pas les données qu’ils imaginaient, tout simplement. Ils font un préalable de l’existence de la donnée pour vanter la valeur ajoutée qu’ils pourraient apporter en la traitant, mais cela ne tient pas, tout simplement parce que ces données n’existent pas et que cela coûterait extrêmement cher de les produire et de les maintenir.
Il y a un effet de bulle, de nombreuses villes continuent d’acheter ce type de solutions, mais elles ne servent souvent à rien. Pourquoi ? Parce qu’en fait elles répondent à des problèmes qui ne sont pas les leurs. D’où l’importance de la notion de problématisation. C’est-à-dire que les gens du numérique viennent avec des solutions à des problèmes qui n’ont pas été formulés par les acteurs de la ville. Cette vogue repose par ailleurs sur le postulat d’une neutralité fantasmatique de la donnée urbaine, qui fait l’impasse sur leur dimension politique. C’est un point central à ne pas oublier : il y a un travail politique à générer ces données, dans la compréhension des problèmes auxquels elles répondent, mais aussi dans leur production, leur traitement et leur maintenance. Bien que négligée par une partie des acteurs, tous les gros projets se confrontent à la question de la maintenance des jeux de données, qui sont extrêmement friables et périssables. En ce sens, le numérique est fragile lui aussi. Mettre à jour un jeu de données suppose par exemple de choisir entre écraser le précédent, auquel cas on ne fabrique pas d’archives, stocker, ce qui est lourd et coûteux, ou versionner, ce qui rend rapidement l’utilisation très complexe.
Je crois que nous passons progressivement d’un moment un peu mythique et très idéalisé de la donnée urbaine disponible pour gérer les villes à une problématisation de ce que cela veut dire de fabriquer et de générer de la donnée intelligente, pertinente, qui réponde à des problèmes finement posés. Et ce que cela veut dire de la traiter avec des spécificités proprement urbaines, pas simplement en se posant des questions issues de la science du big data, qui impose des problématiques d’optimisation et d’efficacité.
Jérôme Denis : Surtout elle n’existe pas en tant que telle. Quand vous cherchez à récolter de la donnée, au mieux vous tombez sur des tableurs Excel plus ou moins complets, généralement incompatibles les uns avec les autres, conçus au départ pour des usages différents de ce que vous cherchez à leur faire dire. Dans la construction, le BIMModélisation de l’information sur le bâtiment ou gestion de l’information sur le bâtiment. Désigne les outils de modélisation des informations de construction mis en œuvre par les applications qui permettent de modéliser les données d’un bâtiment, d’une structure, d’un bâtiment ou d’un ouvrage. en est un bon exemple, avec ses coûts faramineux, alors que c’était supposé coûter beaucoup moins cher. C’est l’exemple type d’une situation dans laquelle les acteurs pensaient que les données seraient facilement accessibles et partageables. Ce n’est même pas qu’ils minorent ses conditions de production, ils font comme si elles n’existaient pas du tout. Le premier point fondamental est donc de rappeler qu’il faut investir dans les conditions de production la donnée.
Un autre problème récurrent est le ré-usage de données dans un autre contexte. Quand bien même des données existent, il faut les nettoyer, les harmoniser, les formater pour un nouvel usage. Non seulement elles ne sont pas neutres, mais il y a un coût d’extraction et de transformation. Or trop souvent rien n’est budgétisé pour cela. Dans sa thèse, Samuel Goëta a montré par exemple que lorsque les collectivités ont commencé à ouvrir leurs données elles n’avaient quasiment aucun moyens financiers ou humains pour le faire, parce que presque tout le monde imaginait qu’il y avait quelque part un « robinet » de données.
Le problème n’est pas seulement de trouver une « source » de données, mais qu’il faut également travailler pour les rendre exploitables. La définition de ce qu’est une donnée va donc avec la définition du travail de la donnée. Pour qu’une donnée soit considérée comme telle, il faut qu’elle puisse être traitée, analysée, sans nécessiter de travail supplémentaire. Et là encore il y a un processus très fort d’invisibilisation du travail qui est malgré tout nécessaire en amont. La donnée repose clairement sur une part de « sale boulot », et je crois qu’il y a une dimension politique à la rendre visible, mais aussi une démystification nécessaire de ce que cela coûte financièrement de faire exister ces données.
L’histoire et la sociologie des sciences a montré depuis des années que la donnée brute était « obtenue », comme dit Bruno Latour, et que les données n’existent pas à l’état « naturel ». Il ne suffit pas de se baisser pour les ramasser, il faut les générer, les façonner et les transformer quand on veut les utiliser dans un autre contexte, autant d’aspects très peu mis en avant dans la version prophétique des promesses liées au big data. Oui, bien sûr que les données se travaillent, c’est l’essence même du travail scientifique, mais cela ne change pas leur qualité ou leur force, cela ne les rend pas nécessairement « trafiquées ». Il me semble donc essentiel d’assumer le fait que la donnée se travaille, se fabrique de manière parfois complexe, coûteuse, et qu’il faut mettre des moyens pour la faire circuler d’un contexte d’usage à un autre, pour qu’elle soit réellement pertinente et utilisable.
Jérôme Denis : Il y a en effet avec la data une tendance à « réingénieriser » la gestion de la ville, mais cela pourrait tout à fait être le contraire. Le mouvement des citizen sciences, de la contre-production de la donnée, ou datactivisme, me semble justement intéressant au sens où cela repolitise la question, ou du moins offre des contre-propositions fonctionnalistes. La question n’est pas tant la donnée en tant que telle que sa problématisation. Si nous abandonnons ce travail, c’est tout une politique de la ville qui disparait. Nous ne pouvons pas nous contenter de données génériques autour de questions standard d’efficacité, car la seule perspective d’une optimisation dépolitise l’espace urbain. En s’appuyant sur des questions comme la qualité de l’air ou le confort sonore, la qualité de vie en ville en général, nous pourrions imaginer des milliards de données pour refaire vivre une partie de la politique urbaine. Je ne pense donc pas que la donnée soit nécessairement synonyme de fonctionnalisation, c’est seulement que les acteurs qui s’en saisissent et qui vendent ces solutions-là sont des acteurs de l’optimisation, qui raisonnent dans des termes fonctionnalistes
David Pontille : Pour revenir sur l’importance du moment de problématisation des données pour qu’elles soient non seulement efficaces mais pertinentes, qu’elles servent concrètement, je pense qu’il faut préciser que le modèle de la smart city c’est la résolution de problèmes. Dans les projets de smart city, le problem solving consiste à monter une expérience pour – l’anglicisme est volontaire – « adresser » un problème et trouver comment le résoudre. Mais cette façon de raisonner en problème/solution n’est pas synonyme de problématisation, bien au contraire.
Le problem solving est le cheval de Troie des acteurs de la tech qui vendent ces solutions. Ils viennent avec des problèmes pré-packagés, généralement liés à des questions d’optimisation, mais qui sont souvent de faux problèmes. L’aura actuelle du big data suffit pourtant trop souvent à convaincre les décideurs. Si nous prenons le cas de l’algorithmique policière – l’idée d’essayer d’anticiper où et quand des crimes peuvent se produire –, il est très clair que cela ne fonctionne absolument pas, sans même compter les risques éthiques, car les biais sont absolument phénoménaux. Ces questions de sécurité publique ne relèvent pas de l’optimisation. Au final nous en revenons toujours à l’idée qu’il faut davantage d’officiers de police, plus représentatifs, mieux formés, et l’algorithmique ne peut rien pour cela. Mais trop souvent c’est par cette logique du problem solving que s’imposent des problèmes.
Cela dit, l’erreur serait surtout de croire que d’un côté nous sommes dans la politique, et dans l’autre pas du tout. Le problem solving est une politique, une stratégie de l’optimisation et du flux qui se positionne comme du pur solutionnisme alors qu’elle est éminemment politique. Il y a notamment de nombreux présupposés sur qui va en bénéficier, mais aussi la question de savoir qui détient les données, comment et par qui elles sont valorisées et monétisées ? Je pense qu’il faut lutter politiquement contre cette politique du solutionnisme technique. Il est essentiel de ne plus séparer la technique de la politique, car les deux se mélangent de chaque côté.
Jérôme Denis : Ce qui est totalement faux, mais qui est en effet une manière de vendre ces solutions, en prétendant qu’elles répondent scientifiquement, objectivement aux problèmes, quelle que soit la couleur politique de la municipalité. Un article passionnant autour de projets de sciences citoyennes sur la qualité de l’air de Jennifer Gabrys et ses collègues, qui a pour titre « Just Good Enough Data » montre bien le potentiel au contraire très politique de la donnée, et l’intérêt de se la réapproprier. Ils montrent comment des jeux de données produits par des citoyens, même imparfaits, peuvent produire de la politique, non pas parce qu’ils sont super précis, mais simplement parce qu’ils permettent de mettre en lumière, et de faire exister sous un nouveau jour, des questions de pollution.
Par ailleurs, je suis très frappé de voir qu’au-delà des cas où nous imaginons qu’il y a beaucoup de données alors qu’il n’en est rien, il y aussi de nombreux domaines où nous savons très bien que nous n’en avons pas, je pense notamment à la santé. Le constat est le même, c’est-à-dire qu’il y a un présupposé que la donnée existe, mais il y a des situations, notamment sur le plan épidémiologique par exemple, où il semble complètement dingue que nous n’ayons pas davantage de données. Nous avons très peu de données locales sur les cancers, par exemple, d’où les nombreuses controverses sur le sujet. Cela renforce clairement le rôle des citizen sciences et du datactivisme,. D’un point de vue politique il est quand même intéressant de voir qu’il n’y a sciemment quasiment pas de données là-dessus. Ce n’est plus une question fonctionnelle de savoir comment faire tourner un réseau de bus ou assurer la sécurité d’un quartier, le sujet c’est que nous n’avons pas ces données parce que nous ne nous sommes pas donné politiquement les moyens de les produire, alors que nous sommes censés être de plain-pied dans l’ère du big data.