Données et méthodes pour la cartographie de la surchauffe urbaine (2/2)

Ce deuxième article de notre dossier sur la cartographie de la surchauffe urbaine entend éclairer sur les différentes méthodes existantes, afin de choisir celle qui correspond le mieux à ses besoins et à ses moyens, tout en ayant conscience des intérêts et des limites de celles-ci.
[Publié le 5 septembre 2023]

Auteurs et autrices : Marin Pugnat (Agence Parisienne du Climat), Elodie Briche (ADEME), Martin Hendel (Laboratoire Interdisciplinaire des Energies de Demain), Marjorie Musy (CEREMA)


LISEZ LA PREMIÈRE PARTIE : DIAGNOSTIQUER LA SURCHAUFFE URBAINE : NOTIONS ET DÉMARCHES

Une fois les notions scientifiques liées à la surchauffe urbaine maîtrisées et son besoin identifié, il convient de se lancer dans le diagnostic à proprement parler. De nombreuses méthodes, très différentes, existent, on peut distinguer plusieurs approches :

  • certaines méthodes partent de l’analyse des températures (de l’air ou de surface),
  • d’autres estiment ou modélisent la surchauffe en partant de l’analyse du territoire. 

Chacune comporte des intérêts et des limites, et il est tout à fait possible de les combiner pour réaliser un diagnostic plus complet.

Recommandations générales

1/ Bien définir ce que l'on cherche à savoir et ce qu'on veut en faire avant de choisir la méthode de diagnostic en fonction. Le diagnostic doit répondre à une ou plusieurs questions claires, dans un but précis. Sinon, il diagnostic risque de ne pas déboucher sur une utilisation opérationnelle. C'est une erreur assez courante ! Pour en savoir plus sur les objectifs possibles, consultez la première partie ! 
 
2/ Attention aux effets de mimétisme : une méthode employée par une autre collectivité n’est pas forcément rigoureuse ou adaptée à son territoire. Dans le doute, il vaut mieux ne pas spécifier de méthode dans un appel d’offre lorsqu’on veut faire appel à un prestataire pour diagnostiquer la vulnérabilité du territoire aux fortes chaleurs, ou se faire assister par une assistance à maîtrise d’ouvrage neutre et experte.
 
3/ Attention à ne pas avoir la folie des grandeurs : le diagnostic doit récolter des données utiles, et être en adéquation avec ses moyens. Une étude trop ambitieuse se fera au détriment de la qualité et de la pertinence scientifiques, et/ou réduira le budget pour la mise en œuvre des actions.

4/ Combiner les méthodes, mais sans les multiplier : comme expliqué dans cet article, chaque méthode présente ses limites, c’est pourquoi il est pertinent de les associer. Mais là encore, attention à ne pas trop en faire : chaque méthode supplémentaire augmentera le coût du diagnostic ! Il faut donc se concentrer sur les plus pertinentes.
 
Un des principaux enjeux d’un diagnostic est qu’il soit utilisé par la suite. Ce n’est en effet pas une fin en soi, il doit s’intégrer dans une démarche globale d’adapter son territoire aux fortes chaleurs, et doit donc contribuer au passage à l’action

5/ Lorsque l’on fait appel à un prestataire, inclure la proposition des préconisations complètes : cela rendra pus facile l'utilisation opérationnelle du diagnostic. Mais dans ce cas les préconisations demandées doivent répondre à un besoin précis !

6/ Engager tous les acteurs concernés : les différents services (espaces verts, habitat, voirie…), les agences d’urbanisme, les aménageurs, les grands propriétaires fonciers, les citoyens, pour que chacun puisse profiter des enseignements du diagnostic et appliquer les recommandations. Cela passe par exemple par des ateliers de formation, des évènements de sensibilisation, voire l’implication de ces acteurs dès la phase du diagnostic.
 
7/ Prendre en compte d'autres enjeux que la chaleur : lorsque l’on cherche à évaluer la vulnérabilité d’une ville au changement climatique, il est important de rappeler qu’elle ne se limite pas aux canicules, ce qui implique de croiser ce diagnostic avec d’autres enjeux comme la biodiversité, la sécheresse ou gestion alternative des eaux pluviales. D’autant que des solutions permettent d’agir contre plusieurs aléas à la fois.

Les approches empiriques

Les thermographies satellites et aériennes : un outil de sensibilisation plus que de diagnostic


Principe
 
Souvent proposées aux collectivités, ces thermographies permettent de produire des cartes dont la couleur renseigne sur les températures de surface au moment du cliché. Le principe : un satellite détecte le rayonnement infrarouge des surfaces qu’il survole, permettant de connaître avec plus ou moins de précision leur température à un instant T. Il est également possible de produire ces images en faisant voler un avion ou un drone équipé d’une caméra thermique.
 
Utilisation

Plutôt qu’un outil d’analyse, ces thermographies peuvent représenter un outil de sensibilisation efficace et relativement peu coûteux pour montrer que les températures varient selon les zones. Très difficiles à interpréter pour une utilisation opérationnelle, même par des experts, elles ne sont généralement pas exploitées opérationellement. Elles peuvent néanmoins être utilisées en complément d’autres méthodes.

Thermographie infrarouge prise par le satellite Lansat en 2010 - APUR

 























Limites et contraintes

Les thermographies sont souvent proposées aux collectivités pour cartographie l’effet d’îlot de chaleur urbain. Elles présentent un intérêt pour la sensibilisation mais il est difficile de les considérer comme un outil d’analyse rigoureux pour plusieurs raisons :
 
  • Elles indiquent uniquement les températures de surface horizontales non recouvertes, mais pas les températures de l’air (celle utilisée pour quantifier l’effet d’ICU), ni celle des façades et des sols abrités du ciel.
  • Les températures affichées sont celles à un instant donné, celui de la prise d’image, alors que le phénomène d’ICU est un phénomène dynamique qui évolue au cours de la journée, cela est d’autant plus problématique pour les thermographies satellites qui sont tributaires des heures de passage du satellite.
  • Les images de températures de surfaces sont produites après un traitement qui prend notamment en compte la nature des surfaces. Bien maîtrisé sur les surfaces rurales assez homogènes, ce traitement comporte des approximations importantes sur les villes, conduisant parfois des erreurs de plusieurs degrés.
  • La résolution des satellites ne permet pas une analyse à l’échelle d’une rue.

Les thermographies aériennes (via un avion plutôt qu’un satellite) limitent certains écueils en contrôlant l’heure de survol et en améliorant la résolution, mais sont aussi plus coûteuses (au moins 20 000 €, contre 3 000 € à 6 000 €) et se cantonnent également aux températures de surface. 
 

Les mesures in situ pour caractériser le phénomène d’îlot de chaleur


Pour caractériser l’îlot de chaleur urbain, le plus fiable reste de mesurer sur place les températures de l’air. Il est également possible de récolter d’autres données, importantes pour évaluer le confort thermique, en particulier le taux d’humidité et la vitesse et la direction du vent ainsi que le rayonnement (température moyenne de rayonnement).
 
On peut différencier deux approches différentes, qu’il est possible de combiner :
 
  • établir un réseau de capteurs ou de stations météo, afin de recueillir des données sur un temps long pour quelques points de la ville,
  • prendre des mesures itinérantes, courtes, afin de couvrir l’ensemble ou une grande partie de la ville. 

 
Les réseaux de capteurs : suivre l’évolution sur un temps long à des endroits clés

Principe
 
Un réseau de capteurs ou de stations météos permet de suivre les variations des températures tout au long de la journée (et de la nuit), et d’une vague de chaleur, ce qui est particulièrement intéressant pour appréhender l’ICU puisqu’il varie grandement au cours de la journée.
 
Utilisation

Suffisamment dense et bien pensé, un tel réseau peut servir de base d’une cartographie du phénomène d’ICU et à repérer les zones à enjeux sur lesquelles intervenir en priorité. Lorsqu’il est installé et suivi de manière pérenne, il permet de suivre l’évolution inter et intra-annuelle, offrant alors la possibilité de faire des comparaisons après des opérations d’aménagement, ou de fixer des objectifs chiffrés dans le PCAET sur les zones identifiées comme prioritaires pour lutter contre la surchauffe.

On peut citer comme exemples les réseaux de Toulouse, Rennes, Dijon ou Grenoble.

Contraintes

Le nombre de points de mesure étant limité, il est important de les choisir stratégiquement. L’objectif est le plus souvent de couvrir différents types de lieu représentatifs d’un territoire. Pour cela, des méthodes de classification des quartiers telles que les zones climatiques locales présentées plus loin sont très utiles.

La baisse du prix des capteurs rend cette méthode plus intéressante, mais un poste à temps plein est nécessaire pour mettre en place, suivre ce réseau et interpréter les mesures. Selon la taille de la collectivité, il peut donc être intéressant de le mutualiser.

Il convient par ailleurs de faire preuve de prudence sur la qualité des mesures qui peut être dégradée par des capteurs mal positionnés, abrités ou étalonnés, voire tout simplement sales.
 
  
Les campagnes de mesures mobiles : couvrir un territoire sur une courte durée

Principe
 
Des mesures itinérantes consistent à sillonner la ville avec des capteurs à prise rapide, à pied, vélo ou voiture. Ces mesures apportent des renseignements intéressants à un instant T sur le confort thermique qui peut varier grandement d’une rue à l’autre, en fonction des revêtements, de l’exposition au vent et au soleil, ou encore de la présence d’eau ou de végétation.

Utilisation

Dans l’optique de réaliser un diagnostic territorial, elles sont généralement réalisées en complétement d’autres méthodes, en apportant une analyse à une échelle plus fine mais qui ne peut couvrir l’ensemble du territoire. Le plus souvent à un réseau de mesures fixes mis en place et suivi pendant un été, comme à Lyon ou à Casablanca, mais aussi parfois à une thermographie, comme à Rennes, ou à un zonage climatique du territoire (voir plus loin) comme à Nancy.

Elles permettent aussi d’étudier la surchauffe sur des lieux et à des horaires stratégiques, par exemple de rues fréquentées ou de places en pleine journée.

Contraintes

Pour caractériser l’intensité maximale de l’ICU, elles doivent être réalisées dans des conditions radiatives (temps dégagé et vent faible), le jour et la nuit, sur des périodes courtes (une demi-heure environ). Il n'est pas possible, ou très coûteux, de couvrir l'ensemble du territoire, le dessin du parcours est donc très important pour couvrir les zones souhaitées.

Il faut généralement compter entre 10 et 30 000 € pour une campagne complète par un bureau d’études. 
 

S’appuyer sur le ressenti : enquêtes sociologiques et diagnostics sensibles


Principe
 
Cette approche consiste à demander directement aux habitants leur ressenti, via des questionnaires, des micros-trottoirs, des balades urbaines et/ou des ateliers participatifs, ce qui a par exemple été fait à Nanterre (accompagnée par Nepsen) ou à Auxerre (accompagnée par TRIBU), à chaque fois en complément de mesures in-situ.

Utilisation

Cette manière d’appréhender le confort thermique permet d’identifier les zones les plus problématiques sur la base du témoignage d’usagers permettant de prendre en compte leurs pratiques, ce qu’une analyse stricte des températures ne révèle pas. Ainsi, lorsqu’on parle de confort thermique, une rue très chaude mais isolée et peu empruntée en été ne sera pas aussi prioritaire qu’une artère légèrement moins inconfortable mais très fréquentée aux heures les plus chaudes. Une enquête peut aussi faire remonter des besoins en espaces verts, des enjeux d’accessibilité d’un îlot de fraîcheur, un inconfort à l’intérieur des bâtiments… Dans un optique de sensibilisation, ces témoignages peuvent être efficace pour convaincre de l'importance de l'enjeu de la surchauffe en ville.

Ces méthodes sont utilisables à l’échelle d’une ville mais aussi d’un quartier, voire d’un îlot.

Contraintes

Les enquêtes sont généralement moins coûteuses que les campagnes de mesure, et elles ne nécessitent pas d’équipements particulier ou de technologies à maîtriser. Elles doivent néanmoins s’appuyer sur un protocole précis et rigoureux et un savoir-faire pour aboutir à des résultats fiables et exploitables.

Les approches par l’analyse du territoire

Grâce aux connaissances acquises sur le phénomène d’îlot de chaleur urbain et sur le confort thermique, il est possible d’appréhender la sensibilité d’un territoire aux canicules en analysant ses caractéristiques : la morphologie urbaine, l’occupation des sols, la présence de végétation… sans oublier les facteurs socioéconomiques.
 

Le zonage climatique : un support aux méthodes empiriques plutôt qu’un outil complet de diagnostic


Principe
 
Pour prendre en compte la morphologie urbaine, la méthode la plus accessible est d’utiliser les « Zones Climatiques Locales », ou « Local Climate Zones » (LCZ), un référentiel mis au point par Iain D. Stewart et Timothy R. Oke. Ils ont classé les zones, allant de quelques îlots à un quartier, en 17 catégories. Les zones d’une même catégorie – par exemple « ensemble d’immeubles compacts », « ensemble de tours espacées » ou « arbres éparses » – ont une influence climatique similaire. 

Utilisation et limites

Les LCZ prennent une place importante dans les travaux de recherche sur le climat urbain, par exemple dans les modélisations climatiques. Désormais des bureaux d’études proposent des cartographies de l’ICU basées sur ces LCZ appliquées aux villes, mais il convient d’être conscient de leurs limites pour prédire le climat urbain :
  • les catégories ne sont pas homogènes et ne peuvent pas représenter toutes les caractéristiques locales, comme les propriétés des matériaux ou le taux de végétalisation par exemple,
  • elles ne permettent pas de prendre en compte l’influence des zones adjacentes et du climat régional.

Généralement, les LCZ sont utilisées pour appuyer des méthodes empiriques plutôt que seules pour étudier l’ICU. Comme évoqué précédemment, elles peuvent guider le choix de l’emplacement de capteurs ou de stations météo, l’objectif étant par exemple d’avoir au moins une station par typologie de bâti. Ainsi, des mesures faites sur quelques zones types permettent d’extrapoler une intensité d’ICU aux autres zones similaires du territoire.
  
On peut citer pour l’Île de France le travail de l’Institut Paris Région, qui a appliqué le principe des LCZ à une échelle plus petite, les « îlots de morphologie urbaine », correspondant à un pâté de maison, complété par le calcul d’une dizaine de propriétés clés (taux de végétation, surface bâtie, perméabilité…). Il a d’ailleurs abouti à une cartographie de la vulnérabilité à l’ICU de la région, à partir du calcul de dix indicateurs pour chaque îlot, complété par des données socio-économiques (voir plus loin). Il permet d’obtenir un premier niveau d’information qui peut servir de base à un diagnostic plus poussé.

Aperçu de l'onglet "ICU" de l'outil "Où renaturer en Île-de-France", développé par l'Institut Paris Région

 












Simuler le climat à de l'échelle de ville à celle du quartier


Des modèles, plus ou moins détaillés, permettent de simuler le climat d’un territoire à partir de ses caractéristiques. Les modèles physiques complets sont les plus précis pour simuler le climat local à partir de la morphologie urbaine, et sont utiles pour évaluer la vulnérabilité du territoire aux fortes chaleurs, mais nécessitent de découper le territoire en mailles. Des modèles simplifiés prennent en compte moins de paramètres physiques et sont scientifiquement plus limités, mais permettent de coller au plan de la ville et ainsi de repérer plus facilement les zones à enjeux. Certains modèles permettent également de changer des paramètres pour estimer l’impact de politiques d’aménagement (de végétalisation par exemple) à l’échelle de la ville.

 
Les modèles physiques poussés

Principe

Cette première approche, développée notamment par Météo-France, consiste à découper la ville en mailles d’une centaine de mètres de côté. On estime le comportement de chacune à partir d’une rue canyon moyenne représentative, ou à partir de caractéristiques représentatives du tissu urbain de la maille. De nombreux phénomènes physiques sont pris en compte pour simuler les échanges thermiques le plus fidèlement possible à partir de la hauteur des bâtiments, de la largeur des rues, de la part de végétation...


Cartographie de l'ICU sur le périmètre de la Métropole du Grand Paris, Météo-France et Agence Parisienne du Climat

































Utilisation

Météo-France propose désormais de combiner cette approche avec un modèle atmosphérique, afin de prendre en compte le climat régional réel. Cela permet de simuler les températures et le confort thermique pendant une vague de chaleur. A noter qu’il est également possible de changer des paramètres pour simuler par exemple une augmentation du taux de végétalisation. Découvrir le service Climadiag Chaleur en ville de Météo-France.

Contraintes

Il s’agit de la manière la plus rigoureuse de simuler le climat à l’échelle de la ville, et d’estimer la vulnérabilité du territoire aux vagues de chaleur (sur le plan physique), mais la résolution spatiale ne permet pas d’analyser le territoire à une échelle très fine et ces simulations demandent une expertise pointue ainsi que des temps de calcul et de travail non négligeables. 

  
Les modèles simplifiés et indices

Principe
 
D’autres outils de simulation plus légers existent, qui ne donnent souvent pas une température mais un indice. Ils se concentrent sur certaines caractéristiques importantes (exposition au soleil, type de matériaux, végétation…), peuvent inclure les LCZ, en reproduisant le plan de la ville plutôt qu’en la découpant par mailles. On peut citer comme exemples le travail de l’Apur ou de Verdi.

Utilisation

L’intérêt est ici de faire ressortir les lieux qui sont les plus sensibles à la chaleur d’après le modèle grâce à des cartographies fidèles au plan cadastral.

Limites

Il convient d’être vigilant sur leur portée, car ils ne disposent pas de la validité scientifique des modèles physiques poussés. 

  

Les simulations micro-climatiques de l’échelle du quartier à l’îlot


Les simulations à l’échelle d’une ville ne permettent pas d’étudier l’impact de l’agencement spatial d’un aménagement ni le confort thermique à l’échelle de l’espace. D’autres outils prennent alors le relais. Au niveau d’un quartier ou d’un aménagement, on retrouve là encore des outils plus ou moins détaillés, correspondant à des approches bien différentes.


Les modèles physiques microclimatiques

Principe
 
Des logiciels cherchent à simuler avec précision les principaux phénomènes physiques qui régissent le climat urbain : l’ensoleillement, le vent, les transferts de chaleur, l’évapotranspiration… Les deux principaux sont SOLENE-Microclimat, qui a par exemple été utilisé sur un quartier de Prague (par Ecoten Urban Comfort) ou dans le cadre du projet des Cours Oasis à Paris (en partenariat avec Soleneos), et ENVI-MET, proposé par plusieurs bureaux d'études. A noter que d’autres prennent en compte moins de phénomènes physiques, faisant le choix d’être moins complets pour gagner en agilité. C’est le cas de l’outil de simulation prédictif utilisé par Verdi, qui se concentre sur l’aéraulique pour étudier l’impact d’un aménagement végétal, en prenant en compte la croissance de la canopée ou encore la résistance au stress thermique. On peut aussi citer l'utilisation de « jumeaux numériques » et d'outils de simulation dans l'outil d'aide à la décision de Siradel, qui modélise en 3D des espaces urbains puis modélise l'impact de projets d'aménagement.

Utilisation

Ces outils sont ceux qui permettent d’étudier d’une manière détaillée la thermique d’un endroit précis, et d’évaluer les effets d’un aménagement prévu. Même s’ils restent imparfaits (les résultats des simulations peuvent différer des mesures in-situ), ils sont utiles pour appréhender le confort thermique dans un projet.

Coûteux, leur utilisation peut être justifiée dans le cadre d’un projet ambitieux et stratégique, où l’on cherche optimiser des aménagements pour rafraîchir au maximum un espace et prendre en compte les échanges thermiques avec les bâtiments alentours. Mais ils ne sont pas nécessaires pour chaque nouvel aménagement.

Contraintes

Le coût et la lourdeur des simulations (plusieurs semaines de simulation et d’interprétation) rendent leur utilisation systématique pour tous les projets d’aménagement difficilement envisageable. De plus, ces outils sont complexes d’utilisation, et peuvent, faute de documentation, s’apparenter à une boîte noire. A moins d’avoir cette compétence spécifique en interne, une collectivité ne peut pas s’en servir directement, et elle doit s’assurer que le bureau d’études ait une bonne compréhension des modèles physique utilisés dans ces logiciels et de la validité des résultats. Il est conseillé de privilégier ceux qui sont spécialisés dans l’utilisation de ces outils. 

 
Les approches simplifiées des températures de surface

Principe
 
A l’inverse, des outils simplifiés offrent la possibilité aux collectivités d’y avoir recours plus souvent, voire de les utiliser elles-mêmes, en se concentrant sur certains indicateurs, et souvent sur les températures de surface. Certains présentent aussi l’avantage de pouvoir être utilisés directement par les collectivités, sans passer par un bureau d’études.

Il en existe des plus ou moins poussés, et le nombre et le poids des variables varient.
  • Score ICU, le plus connu, développé empiriquement et qui attribue un score correspondant à la température de surface
  • Le coefficient de rafraîchissement urbain, conçu et utilisé par le bureau d’études TRIBU pour estimer l’effet d’aménagements
  • L’indice de potentiel de rafraîchissement du Laboratoire Interdisciplinaire des Energies de Demain (LIED)
  • ICE Tool, un outil disponible en open-source qui s’appuie sur les modules d’un plugin de QGIS, UMEP, pour calculer les températures de surface grâce à un calcul scientifique.

Exemple de rendu de l'outil ICEtool























Utilisation


Il s’agit avant tout d’outils d’aide à la décision, leur vitesse de calcul permettant de comparer facilement et pour un coût réduit différentes options d’aménagement, et d’être systématisés, comme c’est le cas de Score ICU à Lyon.

Il faut bien comprendre ce qu’ils renseignent pour les utiliser correctement, par exemple si le score ou la température affiché porte sur une surface, l’outil sera particulièrement pertinent lorsqu’on cherche à orienter un aménagement pour réduire les températures de surface.

Limites

Leur validité scientifique est variable, et les résultats sont nettement moins précis que ceux des simulations microclimatiques, devant ainsi être pris avec précaution : il est important de comprendre ce que l’outil utilisé prend et ne prend pas en compte. La plupart ne doivent pas être considérés comme des outils de diagnostic en raison de ces limites, mais bien comme de l’aide à la décision. 
 

Croiser avec d’autres données pour évaluer la vulnérabilité de la ville

Intégrer des données socioéconomiques


Comme évoqué dans le premier article, la vulnérabilité aux fortes chaleurs dépend aussi de facteurs socioéconomiques. En effet, au-delà de l’intensité d’un aléa, il faut prendre en compte la sensibilité des populations (âge, revenu, liens sociaux…) et leur capacité à faire face (accès aux soins, à des endroits frais…) pour évaluer la vulnérabilité d’un territoire. On trouve ainsi de nombreux diagnostics, y compris sous la forme de cartographies, qui les croisent avec des données physiques (températures de l’air ou de surface, occupation des sols…). Par exemple, l’Institut Paris Région a évalué la capacité à faire face en considérant l’accessibilité à un médecin de proximité, aux urgences hospitalières ou aux espaces verts, et la sensibilité à partir de la densité d’habitants, des revenus ou de la densité d’emplois, en plus de l’âge.
 

Prendre en compte l’intérieur des bâtiments


Enfin, il est difficile d’évaluer correctement la vulnérabilité d’un territoire aux fortes chaleurs sans prendre en compte le confort d’été à l’intérieur des bâtiments. En effet, les citadins passent à l’heure actuelle plus de 80% de temps à l’intérieur des bâtiments. Si le stress thermique y est moins fort que dans l’espace public, les individus y sont exposés beaucoup plus longtemps, surtout pendant les canicules, en particulier les personnes vulnérables. Il s’agit d’un facteur clé pour expliquer la surmortalité pendant celles-ci.
 
Pour l’heure, les projets de recherche qui vont dans ce sens se heurtent aux limites des typologies disponibles, qui sont généralement basées sur la date de construction des bâtiments. Non seulement elles perdent leur pertinence et fil des rénovations, mais elles renseignent de plus assez mal sur le confort d’été, l’exposition au soleil et les occultations n’étant par exemple pas prises en compte.
 
Des projets de recherche ont ainsi entrepris de mieux cartographier le confort thermique dans les bâtiments (MApUCE, REPextreme). Ils se confrontent cependant, à l’heure actuelle aux deux limites citées liées à l’utilisation des typologies de bâtiments construites pour les classifications énergétiques.

Partager cet article