Quel avenir pour l’Open Data ?

Le 13 avril dernier à l’occasion du sommet de l’innovation Futurapolis de Toulouse, nous assistions aux interventions des maires et représentants de Bordeaux, Toulouse, Barcelone, Oslo et Tel Aviv. Le développement de l’open data faisait parti intégrante de toutes les politiques numériques du territoire.
L’open data a manifestement un avenir, car les décideurs politiques sont dans leur grande majorité convaincus de l’intérêt d’une telle démarche d’ouverture des données, que ce soit pour des raisons de transparence démocratique ou de développement économique.
Balayons ensemble quels pourraient être les éléments constitutifs des prochaines plateformes open data.

Les données produites par les collectivités

Les données brutes devraient être enrichies. Et si on ouvrait les données riches ? Les données qui vont être créatrices de valeur. Les données qui vont vraiment intéresser tous les citoyens, les touristes, les investisseurs ?
Imaginez que toutes les données culturelles d’un territoire soient ouvertes. Des lieux, des salles de spectacle, des musées, des lieux publics en plein air, pour lesquels des centaines d’informations seraient affiliées. Des horaires, des descriptions, mais aussi tous les évènements qui s’y déroulent chaque année. Sur le même principe il serait possible d’ouvrir les lieux de loisirs et de sports, mais aussi des informations liées aux commerces, lieux, marques vendues, horaires, les zones commerçantes par thématiques… Une grande partie des informations se trouve déjà aujourd’hui dans les sites des collectivités, villes, métropoles, office du tourisme, région, département.

Les données produites par les internautes

Doit-on envisager de libérer les centaines de millions de données ouvertes produites par les internautes. Avis, like, commentaires, partages et autres productions issues, par exemple, de capteurs M2M* afin de créer des opportunités de développement économique pour les start-up ? Serait-il concevable d’imaginer une production en crowdsourcing ? Serait-il enfin concevable de proposer un inventaire des données produites autour d’un thème, d’un territoire, d’un lieu ou d’un service sans que le spectre de Big Brother vienne nous hanter ?

L’animation des communautés

Les producteurs de données
J’ai interrogé Sandrine Mathon qui est la responsable du projet Open data de la ville de Toulouse afin d’avoir son retour d’expérience sur le sujet. Elle attire notre attention sur les difficultés qui existent à ce jour en interne dans les entrailles des services gestionnaires pour ouvrir la donnée. Pour libérer des données il faut :
– que l’outil informatisé gère de la donnée suffisamment qualitative renseignée par les agents,
– que les agents aient conscience que les données peuvent être intéressantes dans le cadre de l’open data,
– changer le principe de précaution par le principe de confiance et de foi,
– que les services n’aient pas peur de la réutilisation.
Sandrine Mathon précise qu’en général dans les services des collectivités, l’informatisation d’un processus peut avoir différents stades de maturité : de l’outil très ancien répondant à un besoin historique avec l’inconvénient d’une restitution de données nécessitant un gros travail de traitement pour les rendre publiables ; à l’outil en cours de migration “pour dans quelques mois” toute la gamme existe. Il faut donc inventorier non seulement les données existantes mais également leur état de “publiabilité”.
Les utilisateurs des données
Beaucoup de villes animent et suscitent l’intérêt des jeunes entreprises innovantes et des étudiants en organisant des concours où d’autres dispositifs. Sur Toulouse comme sur Marseille ou Paris, ces concours open data ont permis de faire émerger des projets et d’offrir de nouveaux services aux citoyens.
Toulouse Métropole a donc renouvelé son concours open data consacré aux développements d’applications web et mobile, mais l’a aussi ouvert aux Data-visualisations (Dataviz). L’appel à projets est accompagné de dotations financières d’un montant total de plus de 16 000 €.

À quoi pourrait techniquement ressembler le portail open data du futur ?

Le futur de l’open data passe selon moi par un dispositif d’acquisition des données qui sera automatisé. Les données seront enrichies, beaucoup plus vastes et qualitatives.
Le portail open data donnerait accès à 6 000 évènements se déroulant sur un territoire. Cette interface serait uniformisée, et permettrait à chaque développeurs ou curieux d’accéder au format de données qui lui correspond le mieux.
Pour réaliser cet exercice, le pré-requis c’est accepter que tous les contenus produits dans les sites de diffusions d’information des collectivités sont des données libres. Municipalités, intercommunalité, Musées, Bibliothèques, salles de spectacles…
Le portail open data aura alors trois rôles majeurs :

1. Agrégation des données (documents, articles, événements…)
La plate-forme récupère et traite les données issues des plate-formes sources, afin d’en extraire les méta-données essentielles (titre, type, description, emplacement informatique de la donnée complète [URL], dates, éventuellement géolocalisation…)
2. Diffusion des données sous la forme de flux libres
La plate-forme diffuse les données sous la forme de flux filtrés de méta-données (catégorisations, dates, géolocalisation…)
3. Stockage des méta-informations et de certaines informations.
Les méta-informations (ou méta-données) sont enregistrées et mises en cache au niveau de la plate-forme de façon à ne pas surcharger les plate-formes sources avec du trafic non dédié à la navigation web. Pour les informations n’ayant pas de plate-forme source, les données peuvent être stockées en tant que données open-data, directement sur la plate-forme open-data de la communauté urbaine.
Plus concrètement, la plate-forme consiste en un filtre de pré-traitement des données, qui enrichit le registre des données. Celui-ci appelle, si besoin, le générateur de méta-données qui extrait des données (ou d’une saisie manuelle) les méta-informations stockées dans le registre.
Par la suite, le diffuseur de flux permettrait de présenter le contenu du registre de manière filtrée, dans plusieurs formats ouverts (JSON, XML, RSS…) via web-service (SOAP, REST) ou flux RSS.
—–
* M2M consiste en l’utilisation d’un appareil (capteur, compteur, etc.) qui saisit un événement (température, niveau de stocks, état de l’environnement,) transmis à travers un réseau de télécommunications (sans fil, filaire ou hybride) vers une application (logiciel) qui traduit l’événement capté en une information utile et capable d’être mise en oeuvre (une entrée non autorisée est détectée, le distributeur automatique est vide, le niveau de la citerne est trop bas, etc.). C’est une technologie qui s’insinue partout dans notre vie quotidienne

Partager
Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *