SUPERMARKET #16 : L’OPEN DATA, TOUT LE MONDE EN PARLE MAIS KEZAKO ?

L’open data ou données ouvertes, prend ses origines dans deux tendances structurantes, le monde du libre qui couvre les logiciels et les données et dans l’idée que l’information publique est un bien commun car produite avec des fonds publics. L’ouverture des données se fait sous forme de licence ouverte d’usage qui garantit un libre accès sans restriction aux données.

Quelles sont les données que l’on peut trouver dans l’open data ?

Et bien elles sont multiples, très variées et parfois étonnantes. Météorologiques, fonctionnement de l’état, base SIRENE, Cadastre, dépenses des ministères.. Tous les secteurs de l’Etat produisent de l’open data. Les données sont facilement accessibles et plutôt bien décrites (https://www.data.gouv.fr/fr/topics/economie-et-emploi/datasets). Les collectivités locales ne sont pas en reste et produisent des données diverses. Nous avons à Bordeaux des centaines de bases mises à disposition sous licence libre, comme par exemple les arbres remarquables, les lieux du patrimoine, etc… (http://opendata.bordeaux.fr/recherche/results)

Mais pourquoi tout cela ?

Et bien il y a plusieurs raisons. La première vient du droit. En effet, comme indiqué plus haut, le secteur public créé de la donnée en utilisant l’argent public. On considère donc que c’est un bien commun. Si les données ne sont pas confidentielles, chaque entité peut décider de les publier. C’est aussi un moyen de libérer la créativité et permettre le développement d’applications qui facilitent la vie des administrés, qui peuvent permettre de booster l’attractivité d’un territoire, ou de démontrer l’efficacité des politiques publiques en permettant une valorisation des réalisations d’une mandature… Les données communiquées sont aussi la base de programmes de recherches scientifiques. Par exemple, les études sur le climat, la biodiversité, l’aménagement du territoire peuvent utiliser de l’open data.

Comment peut-on les exploiter ?

En général les sites proposent de télécharger des fichiers sous des formats divers mais exploitables et relativement universels. Une fois chargées les données doivent être exploitées. C’est là que nous rentrons dans le monde de la datavisualisation. Comment faire parler des données massives, comment faire apparaître les tendances, les signaux faibles, les corrélations significatives et quels enseignements en tirer  ?

Et bien pour cela il faut des outils composés de deux grands ensembles : des bases de données puissantes et rapides ainsi que des outils de visualisation.

Les bases de données changent de formes

Notre monde est de plus en plus digital. L’internet des objets touche tous les domaines. La très grande majorité des capteurs fournissent une information exploitable sous forme digitale. Des quantités énormes de données remontent, il faut pouvoir les stocker, les ordonnancer, les traiter et les analyser. Tout cet univers (celui du Big Data) est en pleine croissance, d’autant plus que les décideurs doivent visualiser l’information rapidement pour pouvoir s’adapter. Alors il a fallu inventer de nouvelles structures de bases de données : le NoSQL par opposition aux bases relationnelles. Avant on posait les clients dans un tiroir, les commandes dans un autre, les produits dans un troisième…etc. Ainsi pour calculer la marge d’une vente sur un client donné on lançait une requête qui allait ouvrir tous les tiroirs en suivant des liens (les indexes) pour calculer le résultat. Dans les bases NoSQL, en général la structure est organisée pour que l’information soit physiquement rassemblée. Les formes peuvent être diverses mais aboutissent toutes à une structure minimale orientée rapidité. Les différences de temps de réponse sont impressionnantes permettant de requêter sur des millions d’enregistrements en temps réel.

Le royaume du croisement d’informations

La technique étant au point et capable de traiter beaucoup de données, au diable l’avarice, on peut croiser des données internes à l’entreprise (ERP, CRM, marketing) mais aussi externes (open data, fournisseurs, suivi de trafic internet, réseaux sociaux…)… Quel directeur commercial rêve de mesurer en temps réel l’efficacité d’une campagne marketing ou de la sortie d’un nouveau produit sur ses appels entrants, ses marges et ses commandes futures ? Et bien ce rêve n’est pas qu’un fantasme, on peut même rajouter la météo ou la position GPS de ses commerciaux pour agrémenter, analyser, comprendre, décider.

Le Groupe AQUITEM, expert de la data depuis plus de 30 ans a développé sa propre solution de datavisualisation : MyDataviz’… Vous poussez vos données sur notre plateforme, on vous la restitue sous forme de tableaux de bords… Vous voulez en savoir plus ? Jouez et testez notre outil

Quitter la version mobile