Pas de gouvernance sans maîtrise de la donnée

La notion de “maîtrise” de la donnée peut – et doit – se comprendre selon deux dimensions.

D’une part, la connaissance, l’expertise à construire afin de pouvoir générer, collecter, traiter, exploiter les données (publiques, citoyennes, diverses) dans les meilleures conditions et avec la meilleure efficacité possible.

De l’autre, la dimension de contrôle, de propriété, d’emprise qu’un acteur public peut avoir sur “ses” données par rapport à des acteurs extérieurs qui en sont à l’origine ou qui veulent se les approprier. Exemple typique: la stratégie des GAFAM (le quintette Google, Apple, Facebook, Amazon, Microsoft).

 

La maîtrise au sens de souveraineté sur la donnée

L’espace public se caractérise par un fourmillement, par une multitude d’interactions et d’intérêts qui s’y croisent, une foultitude de données qu’il produit (de même que quiconque y vit ou transite et que le nombre croissant de systèmes et dispositifs connectés qui y sont implantés ou y évoluent).

Toutes ces données, cette richesse intrinsèque risquent-t-elles d’être captées, cannibalisées, valorisées – encore plus que ce n’est le cas actuellement – par des acteurs super-puissants que sont notamment les Gafam? Au mépris ou en dépit des intérêts des acteurs et pouvoirs locaux?

Sans doute.

Lors du séminaire de FuturoCité, Alexandre Mussche, co-fondateur de Vraiment Vraiment, une agence de design de la politique publique (d’origine française mais également active en Belgique), a mis l’accent sur les risques qui guettent si l’on n’y prend pas garde. Google, expliquait-il en substance, est très intéressé par ce que révèle et lui apprend la “vitalité” de l’espace public. Il sait tout (ou tellement de choses) sur les mouvements, les habitudes, les comportements – sociaux, culturels, consommateurs… – de chacun: “qui a acheté quoi, où, à quelle heure, qui a d’abord recherché sur Internet avant de porter son choix sur tel ou tel commerce…”.

Google débarque ainsi dans l’espace public avec ses “puissants outils prédateurs”, nous informe mais selon ses codes, avec des algorithmes dont on ne comprend pas le fonctionnement. Il n’informe que selon son prisme, pré-sélectionne les informations qu’il estime être “utiles” à tel ou tel destinataire – sans que ce dernier puisse avoir une vision totale du pourquoi et du comment. Google nous dit où acheter. Mais pourquoi toutes les autres options sont-elles masquées ou minorisées?

Autre risque: l’exploitation qu’il fera à l’avenir de ces données venant de l’espace et des acteurs publics. “Dans un an ou deux, il revendra aux collectivités les connaissances sur leurs propres activités.”

Le prisme Google est parfois subtil mais ravageur. Exemple: depuis l’apparition du piétonnier à Bruxelles (par définition interdit aux voitures), c’est tout un quartier qui disparaît, s’efface de la carte, privant tous les acteurs locaux d’une visibilité et attractivité sur Internet. Alors qu’un important centre commercial adjacent est, lui, mis en évidence.

Les acteurs publics perdent ainsi toute influence, tout droit au chapitre. Le risque? Le choix imposé des usages.

De même, Google et la galaxie de sociétés, de services et d’applis qui gravitent autour de lui, peuvent dicter bien des décisions. Imaginons que des recommandations de nature commerciales soient d’autorité intégrées dans la solution de guidage routier Waze… Selon des intérêts purement financiers, avec pondération opaque…

 

Reprendre le contrôle, restaurer la souveraineté

Les données publiques existent mais… elles sont dispersées, fragmentées, trop rarement consolidées et échangées, plus rarement encore transformées en open data. Résultat: bien souvent, le public ignore leur existence ou leurs formats ne permet pas leur exploitation et interopérabilité. “Il est donc impossible de développer des algorithmes qui permettraient de vérifier des théories, de découvrir des corrélations et cas d’usages”, soulignait Alexandre Mussche. En enjoignant les acteurs publics d’y remédier afin “que nous soyons à la hauteur de ce que Google permet de faire ou fait lui-même.”

Pourquoi, en effet, les acteurs publics ne pourraient-ils pas imaginer et proposer des services novateurs pour arriver au même degré d’“intelligence” – sinon plus – que les grands acteurs commerciaux, au lieu de leur laisser le champ libre, de permettre qu’ils perturbent inutilement les équilibres, habitudes et finalités des services publics?

Quelques exemples cités par Alexandre Mussche?

  • imaginer un algorithme révélateur de qualité de flânerie, afin de déterminer pourquoi un individu est potentiellement attiré vers tel ou tel espace public, en raison de la proximité de tel ou tel commerce
  • retrouver la maîtrise de la micro-mobilité à l’heure où se multiplient les services de free-floating (vélos, trottinettes…) : “il est possible de collecter de très nombreux types de données – géolocalisation, durée de vie de l’engin, niveau de batterie, trajets suivis…” Pour éviter l’abandon de trottinettes à tous les coins de rue, l’analyse et le croisement des données permettent d’avoir une vision précise des usages et donc de planifier l’installation de petites stations d’ancrage obligatoires. De même, l’analyse des taux d’usage permet de rééquilibrer leur déploiement, en faisant varier les coûts de licence pour l’opérateur en fonction de la fréquence d’utilisation. Ce qui permet aussi d’encourager ces opérateurs à couvrir équitablement tout le territoire et d’éviter que des quartiers soient délaissés.

Chaque opérateur de micro-moyens de transport se comporte actuellement comme il l’entend, ne partage pas ses données. Une commune ou une ville à elle seule n’a pas le poids nécessaire pour l’influencer. Par contre, en s’alliant, elles peuvent retrouver une influence.

Los Angeles et Santa Monica, par exemple, ont réussi à imposer un nouveau format de données ouvert – le MDS, Mobility Data Specification – à ces opérateurs de micro-mobilité (scooters, vélos, voitures…) dont toutes les autres collectivités peuvent se saisir pour, à leur tour, imposer aux opérateurs qui s’installent sur leur territoire de se plier à ce format. Les opérateurs sont ainsi obligés de partager leurs données avec le département mobilité de la collectivité locale s’ils veulent pouvoir décrocher un permis d’exploitation.

Et toutes ces informations de mobilité, provenant de multiples modes de transport, permettent alors aux collectivités locales de mieux adapter leurs propres stratégies de mobilité et/ou leurs investissements dans des infrastructures.

 

Et des acteurs locaux s’y emploient…

Reprendre le contrôle des données pour le bien commun, des acteurs locaux s’y emploient…

En “ouvrant” les données, en faisant des données publiques des open data, les acteurs publics ouvrent la voie à de nouveaux usages et services – imaginés et proposés par eux-mêmes ou par des tiers (privés ou publics).

L’exercice d’ouverture des données permet en outre, en amont, d’en vérifier et valider le contenu, la pertinence, la non-redondance (par rapport à diverses bases-sources), la qualité…

Exploiter des données ouvertes afin d’alimenter ou d’autoriser des services publics permet à une municipalité ou à un territoire de mieux desservir ceux qui y résident. Dans une foultitude potentielle de cas d’usage. Fanny Goldschmidt, responsable commerciale d’OpenDataSoft, citait par exemple:

  • une application de suivi et d’analyse de la qualité de l’air en zone urbaine qui peut permettre de calculer en temps réel des itinéraires permettant de réduire l’impact des déplacements sur la pollution, en tenant compte de données collectées en divers points et comparées avec les données de trafic, les particularités topologiques (pentes, feux rouges…)
  • une solution de gestion des déchets qui renseigne en temps réel les citoyens sur les taux de remplissage des stations de collecte installées en divers points du territoire
  • une application informant des possibilités de parking en voirie, de quoi rendre la recherche d’une place plus efficace, réduisant ainsi la densité de circulation, le taux de pollution ; la réutilisation des données d’une telle appli peut permettre à d’autres acteurs d’imaginer des services complémentaires
  • une application affichant en temps réel le taux d’affluence dans certaines structures (sportives, culturelles…) d’une ville ou commune, permettant non seulement de faciliter la vie des citoyens (décisions plus pertinentes) mais aussi de mieux orchestrer la fourniture de services logistiques ou autres pour ces diverses activités.

Un autre exemple était cité par Dylan Baras, analyste territorial chez UPCity, un bureau de consultance stratégique pour le développement des territoires, qui a développé une solution de WebObservatoire en collaboration avec Business Geografic, bureau français d’accompagnement stratégique des opérateurs publics et para-publics.

La constitution d’un WebObservatoire, outil de gestion transversale des données territoriales, permet d’effectuer le suivi mais aussi la gestion prévisionnelle du bâti commercial et de l’implantation de surfaces commerçantes (selon les besoins, la densité concurrentielle, les disponibilités immobilières, l’évolution démographique…), “afin d’anticiper les mutations et d’orienter les politiques d’attraction”.

L’analyse des données géostatistiques permet par exemple de radiographier l’évolution dans le temps des cellules vides, “de déterminer les zones les plus dynamiques, le mix commercial en fonction des taux de fréquentation, d’intégrer cette analyse avec d’autres fonctions liées aux commerces telles que le tourisme, les lieux d’intérêt, la mobilité urbaine…”.

Autre exemple: une application telle que Stoomlink (appli d’informations sur la mobilité intermodale déjà évoquée), basée et alimentée sur des informations locales, générées par les opérateurs (publics et privés) et par les usagers, présente divers avantages pour les acteurs locaux:

  • une granularité et une pertinence d’informations plus importantes que celles que procurent des applications telles que Google Maps, dont les algorithmes de recherche sont influencés par des préoccupations commerciales
  • un retour à la souveraineté locale, non dépendante de sources tierces, dont les finalités et conditions de gouvernance demeurent souvent opaques.

 

La maîtrise au sens de connaissance et d’expertise en matière de données

Un autre aspect non négligeable de la “maîtrise” concerne évidemment l’aptitude qu’a l’acteur public de collecter “intelligemment” les données, d’en comprendre l’utilité et les finalités potentielles, de les traiter efficacement, d’un point de vue tant purement technologique qu’opérationnel et utilitaire.

La gestion des données publiques et des open data requiert d’en vérifier la qualité, la pertinence, la non-redondance, de veiller à l’intégration et donc à la compatibilité des différentes sources de données (internes ou externes).

Le témoignage de la Ville de Namur, par la bouche de Samuel Nottebaert, smart city manager et responsable du service Data Office de la Ville, mettait le doigt sur certains autres écueils potentiels:

  • veiller à la contemporalité des données (gare aux données vieillies, au format désuet, au manque de cohérences entre jeux de données)
  • s’assurer de la complétude des données
  • les documenter soigneusement, notamment pour expliquer en quoi elles ne sont pas parfaites ou complètes
  • déployer des outils (ETL) de mise à jour et d’extraction automatiques à partir des différentes sources de données
  • désigner, pour chaque jeu de données, la personne qui est responsable de leur gestion et pertinence (l’“owner” des données)
  • respecter les contraintes RGPD-Règlement général pour la Protection des Données: identification des données sensibles, anonymisation, suivi de pertinence et de conformité de tout nouvel attribut ou valeur ajouté(e) à des jeux existants… – “peut-être ce 11ème attribut concerne-t-il une donnée sensible que l’outil ETL a “poussé” automatiquement, sans filtre, dans les données mises en ligne…”.

 

Page précédente

Page suivante

Retour au sommaire

 

Accéder aux supports des présentations du séminaire

En partenariat avec :

 

Avec le soutien de :