Les collectivités doivent-elles faire du bigdata ?

Les collectivités doivent-elles faire du bigdata ?

SHARE
, / 7057 8
Les collectivités doivent-elles faire du bigdata ?

La réduction des coûts, et le maintien de la qualité du service public sont deux préoccupations majeures des collectivités aujourd’hui. A ce stade de l’évolution du service public numérique, ont-elles intérêt à investir dans le bigdata, pour mieux comprendre où se situe les besoins majeurs et mieux ajuster l’organisation ? Oui. Explications…

Un certain nombre de collectivités ont mis en place une stratégie web social. Pour les meilleurs d’entre elles, cette stratégie se découpera autour de 3 axes

  • Diffusion de l’information
  • Ecoute
  • Relation (répondre, interagir)

Pour obtenir un source riche et évolutive d’informations disponibles, vous devez aussi ajouter à ce canal digital, le canal historique qu’est le mail.

Certains vont avoir les ressources pour gérer ces données entrantes, d’autres ne vont pas pouvoir, et c’est bien là l’enjeu du bigdata.  Peut-on imaginer disposer d’outils qui vont nous permettre de prendre de meilleures décisions grâce aux avis stimulés et surtout spontanés des internautes ?

Pour répondre à cette question nous devons d’abord définir ce qu’est le bigdata. Bigdata, c’est le terme générique, qui désigne un très grand volume de données. L’enjeu du bigdata, c’est notre capacité à traiter cette grande quantité de données pour en tirer de la valeur.  Les données, ce sont toutes les informations que nous sommes capable de produire.

75 % des données produites sont générées par des êtres humains (commentaires, blogs, images, likes…), le reste des données est produit “automatiquement” par des objets connectés : Nike+, voitures…

90 % des données publiques produites ont été crées ces deux dernières années. Le développement croissant des outils et des usages augmente considérablement le volume de données chaque jours.

  • Facebook : 1 milliard d’utilisateur et plus de 3,2 milliards de “Like”
  • Twitter : 500 millions d’utilisateurs
  • 12 Terabytes de tweets crées chaque jour (environ 400 millions de tweets)
  • 5 Millions de transactions bancaires chaque seconde
  • 100 Millions de caméra vidéo de télésurveillance dans le monde
  • 4 miliards d’heures de vidéo vues ou commentées sur Youtube chaque moi

Comprendre le bigdata c’est aussi comprendre les espaces de communication de votre collectivité  

Espace maîtrisé

Il s’agit d’un espace où le message est unilatéral, de la collectivité vers l’usager. On retrouve donc les attributs, de la com institutionnelle, avec le site corporate, les publicités et l’utilisation du web social en vitrine où l’on ne cherche pas travailler le côté social, du réseau social.

Espaces semi-maîtrisés

Il s’agit d’espaces identifiés par l’internaute, où se déroule un jeu de dialogue et de modération entre vous et vos usagers. On retrouve les pages Facebook  ouvertes aux commentaires et aux posts du public, les comptes Twitter, les commentaires de blog, les outils de Crm, les vidéos Youtube, etc.

Espaces subis

Il s’agit de l’espace le plus important, celui de l’expression totalement libre, symbolisé par l’historique web2.0 :)
On retrouce les sites concurrents , la presse, Google, les forums, Instagram, Tripadvisor, Twitter, Facebook etc…

 

Les 3 critères de classement du bigdata

  • Le volume : il s’agit de la quantité de donnée produite et stockée sur le “web”
  • La vitesse  : c’est le temps de changement des données. La donnée “score” d’un match de foot va évoluer 1 à 0, 2 à 0, 2-1, 2-2, 2-3. La donnée finale est le résultat d’un évolution dans le temps.
  • Variété : ce sont les différents types de données. Texte, vidéo, images, chiffres, localisations…

Combien de données sont utilisées ?

Aujourd’hui moins de 1% des données disponibles dans le monde sont analysées (source EMC). Beaucoup d’entreprises où d’institutions récoltent de la donnée mais ne l’analysent pas.

L’analyse des données

Elle passe par plusieurs éléments : données froides ou chaudes (temps réel). Cela passe aussi par les données semi maîtrisées, et les données subies. Enfin par la qualification et compréhension de la donnée.

L’analyse sémantique

L’objectif de l’analyse est de produire de la donnée à partir d’une donnée.

Par exemple : “Hier midi, j’ai déjeuné au télégramme de Toulouse. La qualité des plats vaut le détour mais le service était long”

  • Hier midi = identification de temps
  • Télégramme = identification d’une marque
  • Toulouse = identification de lieu
  • Qualité des plats = avis positif sur la marque
  • Service long = opinion négative sur la marque

Définition d’une opinion sur le message :

  • POSITIF
  • NEGATIF
  • NEUTRE

Le bigdata dans la perception de l’internaute

Stimulus de communication  / besoin de l’usager

Moment ZERO de vérité : recherche sur Google

1er moment de vérité : il agit ou n’agit pas

2eme moment : l’usager va donner son avis sur le service, sur nos espaces semi maîtrisé et sur nos espaces non maîtrisés

J’ai eu la chance de participer à une expérimentation bigdata sur le territoire Toulousain avec les sociétés Apicube et Digidust. Dans le prochain article je reviendrai vous expliquer en détail les résultats de cette expérimentation d’utilisation du bigdata pour améliorer la qualité du service public.

En attendant cet article vous pouvez retrouver les slides de Joel Rubino d’Apicube lors de son intervention au capcom2013.

To be continued…

8 Commentaires

Laisser un commentaire