Compte-rendu

Séminaire Smart Governance 2021

Compte rendu réalisé par Brigitte Doucet, Regional-IT.

L’édition 2021 du séminaire “Smart Gouvernance” organisé par FuturoCité, dans le cadre du programme Smart Region de Digital Wallonia, avait pris pour thème la valorisation de l’information – et, essentiellement, de l’open data – comme levier de structuration et d’essor des politiques communales, municipales et territoriales. En ligne de mire: l’efficacité des processus et des services aux citoyens, la possibilité pour des tiers d’imaginer et de déployer de nouveaux services que peuvent s’approprier autorités publiques, citoyens et autres opérateurs territoriaux.

Comme l’indiquait Nicolas Installé, directeur de FuturoCité, en préambule aux cinq conférences programmées (en distanciel), la transition vers un territoire plus “intelligent” [autrement dit connecté, pertinent et proactif] passe par une administration plus efficace et un citoyen mieux informé, davantage impliqué, et qui soit en mesure de comprendre les mesures et projets qui influencent son quotidien.

“On constate une augmentation de la présence des technologies (Internet des Objets, Intelligence Artificielle, Réalité Augmentée, …), autorisant toujours plus de services, mais si les projets doivent réellement être utiles au plus grand nombre, il faut que ces technologies puissent utiliser des données de qualité”. Et que celles-ci soient réellement exploitables, utiles, pertinentes, “intelligibles”.

Cinq conférences étaient au programme du Séminaire 2021 – quatre destinées à un large public et un “atelier décideurs”, davantage réservé aux responsables communaux:

  • L’open data, un levier concret pour les politiques communales
  • De la ville intelligente à la ville intelligible
  • Analyser les flux de mobilité pour gérer au mieux son territoire
  • Modéliser son territoire pour mieux le comprendre et agir de manière éclairée
  • (Atelier Décideurs) Les enjeux de l’open data pour ma commune

L’utilité des open data n’est plus à démontrer mais doit encore être évangélisée. Pourquoi “ouvrir” (mettre à disposition et publier sous forme exploitable) ses données territoriales?

Nicolas Installé les rappelait:

  • autoriser une meilleure connaissance du territoire, par les agents et services publics eux-mêmes et par tous ceux qui consulteront et utiliseront les données
  • renforcer la transparence de l’action publique et permettre de l’évaluer (en termes de pertinence, de “rentabilité”, d’amélioration des paramètres – environnementaux ou autres…)
  • favoriser l’engagement citoyen
  • autoriser et favoriser le développement de services, qui viendront en soutien aux besoins (économiques, sociétaux, environnementaux…) des acteurs locaux
  • générer de la valeur sociale
  • ouvrir la voie à la mutualisation en favorisant et facilitant les échanges (de données, d’idées, d’initiatives, de compétences…), tout d’abord au sein de l’administration locale et ensuite entre entités.

Les enjeux, les usages, touchent à de très nombreux domaines: efficacité de l’action publique, modernisation de l’administration, participation démocratique, restauration de la confiance du citoyen et des acteurs du territoire, essor économique et/ou social, renforcement des potentialités (développement, connaissances à destination scientifique, de recherche…), réappropriation de la souveraineté en matière de décisions et solutions de l’action publique face notamment aux ambitions et à l’opportunisme des GAFA ou de leurs homologues chinois…

Nicolas Installé (FuturoCité): “Les enjeux sont nombreux. Contrairement à une idée reçue, l’enjeu de l’ouverture des données territoriales n’est pas technique, même si des compétences sont nécessaires. L’enjeu est surtout stratégique, dans toute une série de thématiques.”

Une évolution est par ailleurs en cours, de manière générale, dans la conception que l’on se fait de la “smart city”. Comme le rappelait Pascal Simoens, collaborateur pédagogique à l’UMons, spécialisé en urbanisme et en data science, “on assiste à un changement de paradigme. Jusqu’ici, le modèle qui prévalait voulait que, pour les besoins la “ville intelligente”, l’humain soit au services de la machine. Désormais, on évolue vers le modèle qui veut que les machines – notamment l’intelligence artificielle (l’analytique) – soit au service de l’humain. Mais cette approche, cette réflexion ne fait encore qu’émerger…

Aujourd’hui, la recherche démontre que la première approche ne fonctionne pas, ne permet pas d’atteindre le niveau vertueux de ville intelligence espéré. Il faut passer à une gestion collective de la donnée, la donnée devenant un bien commun.

La question à se poser est la suivante: utiliser beaucoup de données, soit, mais par rapport à quoi? A quelle finalité? Le modèle à mettre en œuvre doit être plus proactif, dans une logique de prospective de la part des autorités locales.”

Une dynamique en mouvement

 Ces derniers mois, ce qui, jusque là, avait essentiellement été le fait de quelques rares pionniers en matière d’open data territorial (on peut citer par exemple les projets de la Ville de Namur ou encore de Liège), a commencé à percoler à travers tout le territoire de la Belgique francophone. Il y a un an, rappelait Nicolas Installé, rares étaient encore les communes qui publiaient des jeux de données sur le portail wallon et, souvent, sans qu’il y ait, comme socle, une réelle politique ou stratégie open data de leur part.

Ces derniers mois, grâce notamment au programme de formation Ouvrir ma Ville mis en œuvre par FuturoCité (un accompagnement tant théorique que pratique d’une durée de six mois), 15 administrations (dont une majorité de communes – petites ou grandes) ont ainsi découvert les potentiels de l’open data territorial, s’essayant à la publication de jeux de données et, surtout, à leur exploitation dans le cadre de projets concrets.

Vu l’engouement, une deuxième édition de ce programme a démarré en mai, avec une douzaine d’autres entités territoriales.

Les lignes commencent à bouger”, estime Nicolas Installé. “L’intention est claire, dans le chef de beaucoup, de se lancer. Lors du premier programme Ouvrir ma Ville, 82 jeux de données supplémentaires ont été publiés sur le portail ODWB [portail open data de la Wallonie et de la Fédération Wallonie-Bruxelles]. Et, surtout, une dynamique est née au sein et entre communes. Un groupe de travail a ainsi été constitué qui permettra aux participants (aux profils multiples – décideurs communaux, informaticiens…) d’échanger problématiques et compétences – par exemple en pouvant mieux comprendre quels sont les jeux de données les plus pertinents à ouvrir,…”

Par rapport aux travaux de ce groupe de travail, plusieurs intervenants soulignaient l’importance de se pencher sur différents aspects: les formats à utiliser afin que des échanges et mutualisations puissent s’effectuer entre communes ; l’inclusion de cette obligation de formats favorisant l’ouverture et la réutilisation des données dans la formulation des futurs marchés publics ; l’importance de l’interopérabilité des systèmes (en commençant en interne, entre services d’une même commune) ; ou encore l’intérêt à pratiquer le partage de bonnes pratiques entre entités déjà bien engagées dans l’open data et communes qui n’en sont encore qu’au stade préliminaire…

Rendre les données – et leur finalité – intelligibles

L’une des finalités et l’un des mérites de l’open data est de permettre aux citoyens de “s’approprier” les données, de contribuer à la démarche publique, collégiale. Mais, soulignait Elisabeth Gebka, chercheuse à l’UNamur, comment un citoyen peut-il s’approprier ces données quand il ne dispose pas toujours de l’information nécessaire pour savoir les manipuler, dans le contexte voulu?

La réponse? Veiller à ce que la manière dont les jeux de données sont publiés et mis à disposition s’accompagne d’une nécessaire aide à leur utilisation. Notamment via des techniques de visualisation (graphiques…) et de documentation (textes ou rapports contextualisant, expliquant les données).

La visualisation permet non seulement de mieux comprendre ou appréhender mais est également un levier d’échange “pour discuter des liens entre concepts, entre cause et effet des propositions, opinions, votes…”.

Elisabeth Gebka (UNamur): “Une médiation est nécessaire en matière d’usage des données. Le processus participatif, le processus d’élaboration des politiques est quelque chose encore peu connu par le citoyen.”

A Namur, le service Data Office s’efforce par exemple de rendre les jeux de données non seulement exploitables mais aussi “visuellement agréables et accessibles par tous”. Pas question de tableaux arides. Dès lors, un recours est fait à des visuels mais avec des représentations graphiques qui, elles-mêmes, soient “éloquentes” (graphiques, dessins, cartes…) et qui s’accompagnent de textes “décrivant les données, leur source, comment les interpréter… Il faut documenter – pour les citoyens mais aussi pour les collègues”, soulignait Samuel Nottebaert, chef du service Data Office à la Ville de Namur.

De son côté, Elisabeth Gebka rappelait les quatre conditions à la participation citoyenne:

  • vouloir participer – autrement dit, se sentir concerné afin de passer à l’action, donner envie de participer
  • savoir participer – avoir les connaissances nécessaires
  • pouvoir participer – a-t-on prévu des “lieux” (physiques ou virtuels) via lesquels participer et les avis sont-ils réellement pris en compte?
  • devoir participer – entrent ici en jeu les notions d’éthique et de responsabilité collective.

A noter que ces quatre dimensions s’appliquent également au personnel interne des administrations publiques.

L’“intelligibilité” ne concerne pas uniquement la compréhension des données, de leur teneur, mais aussi et de manière plus vaste, la compréhension de la finalité des open data. Comme l’ont évoqué plusieurs des intervenants du séminaire, on ne perçoit pas toujours l’utilité, l’usage qui sera potentiellement fait des données ouvertes. Après tout, le but est de susciter la création de nouveaux services, qu’on n’imagine pas forcément mais que la créativité ou inventivité des acteurs (internes ou externes à une institution publique) peuvent faire naître.

Comme le rappelait Sandro Manzo, directeur commercial chez Proximus (service Next génération communications, IoT et Analytique), “l’open data permet de révéler des informations jusqu’ici inaccessibles”.

Dans un premier temps, pour qu’une ville ou commune puisse identifier correctement les jeux de données qu’elle peut ou doit publier, une bonne pratique consiste à demander l’avis des citoyens – que ce soit via une plate-forme numérique, un réseau social ou des ateliers participatifs. Comme l’a fait la ville de Bologne, cliente d’Opendatasoft, qui a organisé des ateliers participatifs “pour comprendre ce qu’attendent les citoyens, quels étaient leurs pôles d’intérêts, en matière notamment d’environnement, d’améliorations sociales…”

Le fait de se présenter devant les élus avec cet argument “voilà ce que demandent vos citoyens” est en outre un puissant argument de conviction, soulignait Anthony Matini, chef de projet à la ville de Nîmes (France).

Pour sa part, Gilles Foret, échevin liégeois en charge notamment de la Transition écologique, de la Mobilité et du Numérique, soulignait “l’importance d’avoir une méthode partagée et partageable afin que la démarche open data soit réellement utile. L’open data, c’est aussi une question de structuration de l’esprit et de l’organisation. Cela exige de la discipline. Ce qui correspond aussi à une bonne politique publique. Il faut objectiver les choses pour prendre des décisions pertinentes.”

 L’open data “by default”

Samuel Nottebaert, chef du service Data Office à la Ville de Namur: “Chaque fois que nous créons un nouveau jeu de données, nous l’envoyons vers le portail. Sans toujours savoir exactement comment les gens [acteurs publics, citoyens, développeurs…] les utiliseront mais en sachant qu’elles seront toujours utiles, même si certaines seront moins utilisées que d’autres…”

Son conseil est donc de dire: “Commencez avant d’en avoir besoin. Même si, au départ, on ne sait pas à quoi cela pourra servir.”

La création de jeux de données ouvertes, leur publication sur un portail sont en outre une bonne manière pour les équipes communales de vérifier elles-mêmes la pertinence de ces données, de vérifier que l’usage auquel on les destine est réellement pertinent. Comme l’expliquait Anthony Matini,“nous sommes à la fois producteurs et consommateurs. Nous utilisons en tout premier lieu les jeux de données que nous produisons pour nos propres sites. On vérifie ainsi automatiquement la qualité des données.”

Un travail d’évangélisation

Une difficulté qui est régulièrement identifiée par les personnes qui, au sein des administrations, prêchent la pratique de l’open data est la difficulté qu’ils rencontrent à expliquer cette pertinence aux différents services, soulignait notamment Nicolas Piens, chef de bureau administratif Marchés Publics à la Ville de Mons. “La nature des données open data est complexe. Ils n’en voient pas l’utilité. Il y a l’obstacle des outils à choisir, du coût des solutions. Il y a aussi une certaine crainte de l’inconnu: comment ces données seront-elles utilisées par des tiers?”

De la méthode… et de la progressivité

Comme en ont témoigné deux villes – Mons et La Louvière (voir plus loin le chapitre “Coup de projo sur…”) – qui en sont aux prémices de l’open data, se lancer exige et ne peut réellement être bénéfique que si l’on place les actions dans le cadre d’une réflexion transversale, à long terme et cela implique une série de conditions:

  • identifier les jeux de données disponibles ou à constituer, en commençant par ceux qui seront les plus aisés à constituer, maintenir à jour et rendre disponibles tout en étant les plus pertinents pour les usages espérés ou demandés (en interne et/ou par le citoyen)
  • se doter des ressources nécessaires, en ce compris en termes de compétences et d’implication humaines.

L’acquisition et la gestion des compétences – de tous les “contributeurs”, qu’ils soient agents communaux, élus locaux ou citoyens – est un gros enjeu et un véritable défi.

Il s’agit aussi d’éliminer les barrières, réticences voire craintes que suscite encore l’open data. Notamment, dans le chef de certains, la notion qui veut que “savoir c’est avoir le pouvoir”. Partager l’information, vu sous cet angle, c’est abdiquer cette position de force. Ce qui est une perception erronée mais encore faut-il bien expliquer et démontrer tous les avantages que tous les acteurs concernés pourront tirer de l’open data…

Comme le soulignait Anthony Matini de la ville de Nîmes (France), “la première étape consiste à convaincre les élus de l’utilité des données. Utilité notamment en termes de transparence de la politique, d’évolution du territoire et de la collectivité… La compréhension commence par un effort et un exercice de conviction interne.”

Anthony Matini (Nîmes, France): “La compréhension commence par un effort et un exercice de conviction interne.”

Autre élément majeur dans la préparation d’une stratégie open data: la connaissance, le choix et l’appropriation des outils et des méthodes de travail (au quotidien).

En matière d’“outils” (logiciels, plates-formes…), Nicolas Piens, de la Ville de Mons, soulignait la difficulté qu’ont a priori les agents à “identifier ceux qui permettront de collecter, centraliser, exploiter, intégrer… les données”. Raison pour laquelle une formation est nécessaire. Tout comme la désignation de data analysts, data managers, “référents” data…

Autre écueil dont il faut prendre conscience: la teneur-même des données et la manière dont elles sont utilisées. Au-delà de la “qualité” des données (format, pertinence, véracité, unicité, actualité…), Elisabeth Gebka, chercheuse à l’UNamur, rappelait l’écueil des “biais de données”. Une donnée, en tant que telle, est censée être neutre et objective. Une information ne l’est pas forcément, dans la mesure où elle peut être influencée par la perception qu’une personne a d’une situation ou d’un fait. Ou de la “coloration” qu’elle lui donne. Il ne faut pas oublier, rappelait la chercheuse, que l’open data se place dans un contexte de démarche publique. “L’analyse des données se fait à des fins de prise de décision politique. Les chiffres, eux-mêmes, ne sont donc pas tout à fait neutres, en raison de la coloration politique, d’un risque d’influence politique…”

Les avantages vus du terrain

Pour Samuel Nottebaert, chef du service Data Office à la Ville de Namur, les avantages que procure la pratique de l’open data et, plus spécifiquement, l’existence d’un portail open data, sont à la fois internes (pour les besoins de l’administration) et externes (à destination d’usagers ou d’acteurs du territoire).

Avantages internes tels que…

  • gain de temps pour les agents quand ils recherchent de l’information et qu’ils doivent en faire usage pour effectuer des calculs, réaliser des rapports…
  • gain de temps aussi pour le partage d’informations – inutile de reconstituer des fichiers, de préparer à chaque fois les mêmes données…
  • responsabilisation des agents, puisqu’il est essentiel, au niveau de chacun, de veiller à la qualité de l’information et à sa mise à jour
  • (meilleure) collaboration entre services – “ce qui favorise la réflexion collégiale, le travail d’équipe”
  • pertinence de l’information mise à disposition, compte tenu de l’indispensable vérification préalable et mise à jour systématique
  • outil d’aide à la décision, pour mieux justifier un projet, au stade de sa planification ou de sa présentation ; la centralisation de données pertinentes, leur croisement, permettent par exemple “de planifier la suppression d’un bâtiment, l’ajout d’une école dans tel ou tel quartier, en fonction de l’évolution de la population, ou son choix d’implantation en fonction de sa desserte en transports publics, de la qualité de l’air dans la zone…”

Avantages externes aussi:

  • culture de la communication et de la transparence
  • vitrine qui permet au citoyen de mieux comprendre l’action publique, les projets en cours, planifiés ou proposés

Samuel Nottebaert (Ville de Namur): “Publier des jeux de données, c’est aussi prouver au citoyen que l’on travaille pour lui”.

Coup de projo sur Namur

Namur fut l’une des villes pionnières de l’open data en Région wallonne. Dès 2018, la ville inaugurait son portail, tirant parti d’un historique déjà long de gestion cartographique de ses données (pas moins de 30 ans).

Aujourd’hui, le rythme de publication de nouveaux jeux de données et leur mise à jour régulière ont adopté une vitesse de croisière: pas moins de 317 jeux de données au compteur (dont 150 sont encore des “closed data”, uniquement exploitables par les agents de la ville – par exemple parce qu’elles sont confidentielles ou nécessitent encore un travail de nettoyage ou de vérification). Chaque mois, quelque 4.000 utilisateurs les consultent ou utilisent (dont une majorité de citoyens).

Thématiques de ces jeux de données: données historiques et actuelles de population, cimetières, énergie, mobilité, travaux…

Coup de projo sur Liège

A Liège, la démarche open data a réellement démarré en 2017 à l’occasion du projet de participation citoyenne Réinventons Liège. “Le but était d’améliorer la structuration de nos données afin de communiquer plus efficacement, dans un premier temps en interne”, explique Gilles Foret, échevin en charge notamment de la Transition écologique, de la Mobilité et du Numérique.

“L’open data, c’était aussi un moyen pour la ville d’assumer son rôle de facilitateur pour la mise en œuvre de services au citoyen. Mettre des données à disposition, c’est ouvrir la voie à des services, même si on n’en perçoit pas toujours, au départ, l’utilité.

Troisièmement, l’open data est un élément important en termes de gouvernance du pouvoir public, pour la transparence et le contrôle sur les décisions publiques. L’open data est une des pierres angulaires de la responsabilité publique.”

Gilles Foret (Ville de Liège): “L’open data est une des pierres angulaires de la responsabilité publique.”

Aujourd’hui (printemps 2021), Liège a “ouvert” une cinquantaine de jeux de données, dont la moitié orientés mobilité. “Ce sont les plus sollicités.” Ils le sont notamment dans le cadre du projet Shop & Drive qui, via l’implantation de capteurs, permet de contrôler et de fluidifier la rotation des visiteurs dans des zones à forte attractivité, sujettes à une forte pression de circulation – essentiellement les rues commerçantes. Les données sont ainsi mises à disposition de tout acteur désireux de proposer de nouveaux services. Au-delà du principe de parking devenant automatiquement payant après 30 minutes de stationnement, ces données pourraient servir demain à fluidifier les flux de circulation.

La mobilité douce et la multimodalité figurent parmi les priorités de la ville. Une plate-forme collective, commune aux 24 communes de l’arrondissement, est d’ailleurs en cours de développement, avec pour objectif d’influer, d’orienter et d’optimiser les comportements.

Coup de projo sur Hannut

L’open data, son utilisation et son insertion dans le cadre d’une politique digne de ce nom, sont encore chose nouvelle pour Hannut. L’intérêt de la ville pour l’open data y est vu “en prolongement du Plan Stratégique Transversal”, indique Amélie Debroux, directrice générale. “On nous demandait en quelque sorte un diagnostic mais les données dont on dispose sont dispersées, non structurées, existent sous des formats divers et variés… Il manquait une image totale, disponible en un instant T, pour guider nos politiques.”

Amélie Debroux (Hannut): “La formation Ouvrir ma Ville fut l’occasion pour nous de mettre le pied à l’étrier. Auparavant, nous n’avions jamais pris le temps de nous pencher sur nos données. La formation fut importante en termes de sensibilisation, de prise de conscience qu’il est possible d’améliorer les choses, même avec de petites choses.”

Une démarche open data a notamment pour intérêt d’objectiver les choses – en ce compris pour démontrer que tel village, tel quartier, en dépit des perceptions, n’est pas défavorisé ou oublié dans les politiques publiques.

Et pas besoin de voir d’emblée les choses en grand, soulignait Amélie Debroux. “Même avec de petites choses, il est possible d’améliorer la situation.” Exemple de premier projet que planifie la ville: utiliser les open data pour décider des priorités en matière de travaux publics, sur l’ensemble des villages de l’entité, pour… l’aménagement les trottoirs.

“En croisant avec les données d’arrêts de bus et le nombre d’enfants de telle ou telle rue prenant le bus à tel ou tel moment et endroit, les zones de trottoirs qui tout d’abord seront aménagées seront celles facilitant les trajets vers les arrêts de bus.”

Débutant en matière d’open data, Hannut éprouvait ce que beaucoup d’autres entités ressentent sans doute: par où, par quoi commencer? Amélie Debroux a un petit conseil à donner, sur base de l’expérience vécue: “On a souvent l’impression d’une pelote de laine où tout est emmêlé. Un bon moyen est de regarder, sur le portail Open Data Wallonie Bruxelles, ce que d’autres publient. Cela permet de guider la réflexion, de se conscientiser par rapport à ce qui est possible ou utile. Petit pas par petit pas.”

Coup de projo sur La Louvière

A La Louvière, la motivation pour se lancer dans l’open data fut la prise de conscience d’une nécessité de “reprendre en main les données internes”, souligne Dimitri Boucqueau, data manager.

La Louvière a en effet fait le constat, assez classique, que “le développement de son informatique avait été un peu anarchique. Nous disposons de beaucoup de données, mais elles sont simplement stockées, pas gérées.” Résultat? La qualité fait défaut, les duplicats sont nombreux, aucun catalogue centralisé de données, commun aux différents services, n’existe et personne ne sait au juste qui crée et gère les données, ou comment elles sont utilisées, à quelle fréquence elles sont mises à jour…

Deux objectifs principaux ont été épinglés pour cette “remise en ordre” à la faveur d’une démarche open data:

  • renforcer l’efficience des services communaux, “ce qui devrait permettre de procurer de meilleurs services au citoyen, contribuer à terme à la relance économique et améliorer la qualité de vie (dans toutes ses facettes – environnementales, sociales…) sur le territoire”
  • favoriser la participation citoyenne. Par ce biais, Dimitri Boucqueau estimait que “l’open data serait une opportunité de collecter davantage de données [par le biais des citoyens-contributeurs]. Un projet visant à encourager les citoyens à s’impliquer dans les différents projets lancés ou soutenus par la Ville impliquera le recours à un outil de réseau social de quartier [solution choisie: Hopler, qualifiée de “réseau social des voisins”].

Au-delà du facteur “participation”, ce genre de démarche peut avoir pour effet d’“amener les citoyens à changer de comportement, par exemple en termes de mobilité douce.”

Coup de projo sur Mons

La Ville de Mons ne peut pas encore se targuer d’une réelle stratégie open data et ses (jeux de) données sont encore largement “siloté(e)s”, détenus et gérés par chaque service municipal en particulier. Mais une évolution est en cours. Après avoir participé au programme Ouvrir ma Ville de FuturoCité, un programme a été défini qui vise un triple objectif: constituer une base de données centrale, croiser les données pour identifier les besoins (en ce compris futurs), et améliorer ainsi le fonctionnement des différents services. La Ville veut ainsi faciliter et accélérer l’accès aux données (en ce compris par des acteurs externes – citoyens, chercheurs…) et favoriser l’accès à des informations plus “fouillées”.

Le trajet vers une mise en œuvre et la pratique d’une politique d’open data a été balisé en étapes successives et progressives.

Dans un premier temps, il faudra jeter des bases solides et pérennes: identification des données disponibles, de celles qui seront les plus faciles (ou utiles) à ouvrir, constitution d’un groupe de travail, engagement d’un data manager avec présence, dans chaque service d’un “référent data”, centralisation des données (avec dimension cartographique là où cela fait sens).

Un élément essentiel sera aussi d’ancrer la démarche – par exemple via l’intégration systématique dans les futurs marchés publics pour logiciels d’une clause précisant que les données gérées doivent être libres et exportables et mettre en œuvre des processus de révision régulière des jeux de données pouvant être publiés.

Quelques cas d’usage

Les jeux de données que l’on publie, en les centralisant et mettant donc à disposition, ont ceci de puissant qu’ils permettent de trouver des corrélations parfois insoupçonnées ou inattendues.

Sandro Manzo, directeur commercial chez Proximus (service Next génération communications, IoT et Analytique), en donnait plusieurs exemples lors de son exposé:

  • oudes données de fréquentation d’un lieu (que ce soit la côté belge, telle ville, un musée…) peuvent permettre de mieux comprendre, voire d’optimiser les retombées économiques pour le territoire ; mieux comprendre qui fréquente tel lieu, y reste telle période de temps, peut permettre de cibler plus efficacement les “profils” recherchés
  • comprendre d’où viennent les visiteurs, ce qu’ils consomment (en croisant les données WiFi, 4G/5G avec les données de nuitées par exemple, ou d’approvisionnement en denrées), quand ils le font, combien de temps ils restent dans un rayon géographique donné (croisement possible avec d’autres sources de données: parkings, hébergement, registres de visites culturelles…)… tout cela peut donner des idées pour aménager ou animer le territoire, cibler de nouveaux publics…
  • mise en corrélation entre le nombre de visiteurs en un lieu et les revenus générés (globalement) pour les acteurs économiques du territoire (combien de visiteurs ont acheté de la petite restauration ou des vêtements sur le territoire de la commune, tel week-end, lors de tel événement, lié à telle ou telle action de promotion…)
  • analyse, via capteurs WiFi (en interne de bâtiments publics, culturels, commerciaux…) des taux et durée de fréquentation, du trajet suivi, des espaces du bâtiment les plus fréquentés (en nombre ou en temps) en ce compris en fonction du jour de la semaine ou du mois, de l’heure de la journée… – de quoi adapter, si nécessaire, la disposition des lieux, la campagne promotionnelle afin de lisser l’affluence dans le temps ou attirer davantage vers des zones moins visitées
  • usage de caméras pour du comptage de personnes (avec anonymat garanti), pour de la surveillance de foule (pour éviter les mouvements de panique, avertir d’incidents, signaler la présence d’une fumée suspecte…), pour évaluer la répartition genrée ou l’âge des passants ou visiteurs, voire leur humeur (utile pour des enseignes commerciales…), pour vérifier le port du masque (Covid oblige) ou le port d’un vêtement fluo ou d’un casque (dans des zones à risque)…

Exemples de questions auxquelles l’analyse des données peut répondre

 

(Source: Proximus)

 Quels jeux de données croiser et où les trouver?

Pour les services qu’il peut procurer aux villes et communes (ou autres acteurs territoriaux), Proximus utilise plusieurs sources de données. A commencer par les données de comptage des utilisateurs mobiles (grâce aux relevés des antennes 4G/5G), données qui fournissent des indications “macro” : position dans une zone (plus ou moins étendue, en fonction de la portion de territoire où elles sont installées), provenance de l’usager (ex.: carte SIM étrangère)

Ces données sont enrichies par croisement avec d’autres sources: données de tiers (données socio-démographiques du SPF Economie, données météo, horaires des transports en commun, données de dépenses par carte…), données générées par des capteurs (capteurs de présence, d’humidité, de température, de qualité d’air…) et des caméras (fixes, ANPR…).

Que vous soyez petits ou grand…

Cette exploitation par croisement de données ouvertes s’avère utile à de multiples échelles: depuis la zone territoriale étendue (la côte belge ou telle partie d’une province par exemple ou encore une ville) jusqu’au quartier ou à un bâtiment touristique, culturel ou commercial.

Le type de données et le mode de collecte, bien entendu, seront adaptés aux circonstances. Un exemple-type est l’utilité des données mobiles 4G/5G. La zone couverte par une antenne peut varier très sensiblement, selon l’endroit du territoire où elle est installée. La densité est grande dans les zones très peuplées (les villes) permettant d’obtenir une vision fine des taux de fréquentation et “comportements”. Il en va autrement dans les zones rurales où la granularité d’analyse sera donc moins fine et moins pertinente, comme le soulignait François Laureys, du BEP.

Certaines sources de données peuvent également faire défaut. Impossible par exemple des croiser et affiner les informations fournies par les données mobiles avec des fichiers d’entrée de visiteurs… lorsque les endroits visités sont gratuits.

Le BEP peut citer en exemple l’Abbaye de Maredsous. Dans ce cas précis (analyse l’affluence et de l’attractivité de l’Abbaye et de la vallée de la Molignée), un croisement a été effectué entre les données mobiles et le comptage de véhicules garés sur le parking mais sans permettre de préciser quels lieux alentour ont été visités (ils sont potentiellement nombreux).

Dans ce genre de situation, le placement de capteurs de présence (à l’intérieur ou à l’entrée d’un bâtiment) ou de passage (apposés sur des poteaux le long d’un parcours donné) pourrait effacer cette lacune.

François Laureys (BEP): “Pour Maredsous, nous avons pu analyser l’affluence par période de l’année, jour de la semaine… Les visiteurs se concentrent sur le dimanche après-midi. L’analyse permettra de mieux tenter de lisser l’affluence pour un meilleur accueil. Par ailleurs, comparer l’affluence entre des week-ends de différentes périodes de l’année permet de lier l’affluence à des facteurs événementiels.” Par exemple…

Mieux connaître les pics d’affluence, les comportements des visiteurs permet donc de mieux définir, par exemple, la politique promotionnelle d’un territoire. De planifier certains aménagements. De mieux organiser l’accueil ou l’encadrement – en ce compris en termes de sécurité et de mobilisation des équipes (en ce compris celles de tiers – police, Croix Rouge, volontaires…).

Les “jumeaux numériques”, outils de valorisation des données

Parmi les différentes techniques et outils utilisés pour exploiter les données, le principe des jumeaux numériques, déjà appliqué dans divers secteurs (notamment l’industrie ou la construction) est encore relativement méconnu dans le domaine de l’aménagement du territoire et des smart cities.

De quoi s’agit-il? Un “jumeau numérique” se définit comme une “réplique numérique d’un objet, d’un processus ou d’un système”. Cette représentation numérique expose et permet de mieux comprendre, de modéliser et d’agir à la fois sur les éléments de la réalité concernée et sur la dynamique de son fonctionnement (analyse et prédiction).

Par centralisation, croisement et analyse (automatique) des données, on génère ainsi un modèle virtuel, enrichi, de la réalité. Dans le domaine des smart cities / smart territoire, le jumeau numérique permet donc de créer le doublon d’une ville, d’un quartier, d’un territoire, de ses services, de ses flux, de ses constituantes, d’y superposer des couches de données thématiques. Sorte de maquette 3D dynamique multi-facettes (terrains, bâtiments, espaces verts, flux de circulation, d’énergie…).

Le concept de jumeau numérique implique la collecte d’une grande diversité de données – en ce compris données géomatiques, données opérationnelles, données générées par des capteurs en tous genres installés sur le terrain…

Les données – statiques et dynamiques, historiques et temps réel, publiques et privées – sont combinées en un seul référentiel global.

Un jumeau numérique, ce sont aussi des outils et services qui se servent de ces données. Outils de trois types, précisait Yves Thomas, directeur business développement auprès de la société GIM: outils d’analyse de “comportement” (évolution et paramètres de fonctionnement du bâti, de la population, de la mobilité, de la pollution…) ; outils de prédiction (évolution de la ville, impact des travaux publics, impact d’inondations, influence qu’auront certains “événements” sur la mobilité, implications à terme d’un nouveau projet de construction…) ; et outils de partage d’informations (en interne ou en externe).

Les domaines d’application sont multiples: sécurité, mobile, énergie, environnement, infrastructures, planification urbaine, développement durable…

Yves Thomas (GIM Wallonie): “Un jumeau numérique permet par exemple d’évaluer et de prédire les consommations énergétiques globales des bâtiments, la production individuelle d’énergie, de combiner les données de production, de consommation, de réseaux d’énergie pour prévoir l’intérêt de constituer des communautés d’énergie ou d’initier une nouvelle politique d’isolation.”

La diversité thématique des données et celle des finalités et domaines d’application confèrent un caractère spécifique à la finalité d’un jumeau numérique: à savoir, sa transversalité, qui doit donc nécessairement bénéficier de l’implication de tous les départements d’une ville ou commune.

Un jumeau numérique se doit obligatoirement d’être le reflet exact de la réalité. Il continue donc d’évoluer sans cesse, par injection et réactualisation des données, en temps réel. Processus lourd qui requiert le recours à des mécanismes d’alimentation automatiques pour la plupart des données.

Certains jeux de données, toutefois, demeurent pertinents pendant une période plus longue, n’étant réactualisés qu’à intervalles plus ou moins longs. Pour eux, une mise à jour manuelle demeure possible, comme l’a expliqué Samuel Nottebaert de la Ville de Namur, qui procède de la sorte par exemple pour l’ajout de nouveaux circuits de promenade ou l’actualisation des p.a.s.h. (plans d’assainissement par sous-bassin hydrographique) de la SWDE.

Les données qui évoluent fréquemment, parfois quotidiennement, doivent elles reposer sur des mécanismes de mise à jour automatiques, que ce soit au départ de fichiers Excel, d’outils spécialisés (tels ceux de la société GIM) ou via services Web (lorsqu’elles proviennent de partenaires ou fournisseurs tiers).

Accéder au contexte du Séminaire

Accéder aux rediffusions des webinaires et aux supports des présentations

Pour accéder aux programmes, comptes-rendu et contenus de toutes les éditions:

Séminaire Smart Governance 2022: Gouverner son territoire à l’ère du numérique
Séminaire Smart Governance 2020: La résilience des territoires, comment amortir les chocs, voire les anticiper, et rebondir après une crise, quelle qu’elle soit
Séminaire Smart Governance 2019: Gouverner ses données pour mieux gouverner son territoire
Séminaire Smart Governance 2018: La puissance de la donnée au service des territoires
Séminaire Smart Governance 2017: Comment mieux interagir avec les citoyens

En partenariat avec