Conférence : “Le Big Data est-il l’avenir de l’intelligence économique ?”
Le 8 octobre 2014, Espace Numérique a assisté pour vous à une conférence donnée par Renaud Prouveur, PDG de Spallian, à l’école militaire.
La société Spallian est spécialisée dans le conseil aux entreprises et aux collectivités, notamment dans le domaine de la gestion du risque. Elle a développé son propre logiciel de cartographie “Corto”, alimenté par des données de sources diverses et variées (Open Data, données commerciales …), qui a la particularité d’être 100% français, alors que les outils d’exploitation de données sont pour la plupart américains. Cela représente un véritable avantage pour l’entreprise, à l’heure où la peur de l’exploitation de certaines données par des agences de renseignement anglo-saxonnes suscite la méfiance des acteurs privés et publics.
Le nouvel enjeu : analyser des données brutes maintenant faciles d’accès
Lors de la conférence, Renaud Prouveur, PDG de Spallian, a introduit son propos en déclarant que l’intelligence économique avait connu une gigantesque évolution à travers la Big Data. Les données sont à ce jour en effet facilement et rapidement accessibles, alors qu’auparavant l’essentiel du travail de l’intelligence économique consistait en de la collecte d’information. Il est donc nécessaire pour une entreprise de conseil en intelligence économique d’être plus rapide que la concurrence dans ses analyses, dans la mesure où les données sont accessibles par tous. La valeur ajoutée d’une entreprise repose donc sur son efficience quant au traitement de la Big Data et la lisibilité de ses conclusions.
Renaud Prouveur a alors affirmé que de la même manière qu’un diamant brut qui doit être taillé pour devenir un bijou, les données brutes doivent être croisées et analysées pour être exploitables. On voit en effet assez souvent la Big Data comme une gigantesque masse de données ne permettant que des statistiques globales, alors qu’utilisées de manière efficace, ces dernières peuvent-être valorisées de manière à permettre une analyse très précise. Ainsi, une entreprise faisant appel à des services d’intelligence économique et de gestion des risques pourra savoir en temps réel à quels risques (environnementaux, sanitaires, terroristes …) sont exposées ses filiales et ses employés en fonction de leur localisation géographique. Mais l’exploitation de la donnée n’intéresse pas que les acteurs publics. Spallian compte également parmi ses clients des collectivités locales soucieuses d’améliorer leur gouvernance à travers l’analyse de l’impact de leurs politiques publiques sur leurs population, ainsi que les résultats électoraux qui s’ensuivent.
L’Open Data
En ce qui concerne la situation des données, celle-ci varie en fonction des pays. La France s’est dotée il y a quelques années de cela d’une structure gouvernementale “Etalab”, qui recense les données ouvertes (Open Data), mettant ces dernières à la disposition libre des particuliers comme des entreprises. Des limites existent cependant, et des données sensibles telles que celles de la police ne sont pas disponibles en France. Ce n’est pas le cas en Amérique, où les données sont massivement libéralisées dans la majorité des domaines. Cela permet par exemple d’établir des cartographies très précises de la délinquance, rue par rue, des villes américaines. Un tel phénomène est bien évidemment à double tranchant, et pourrait dans ce cas impacter la “ghettoïsation” progressive de certains quartiers. Des dimensions d’éthique et de d��ontologie doivent donc venir en ligne de compte, afin de protéger des données personnelles, sensibles, qui pourraient avoir un impact globalement négatif sur la société.
Renaud Prouveur a conclu son propos en déclarant que même si l’informatique est un outil qui fait partie intégrante de l’intelligence économique, l’intelligence humaine reste primordiale quant à l’exploitation des données, et doit moduler ce qui est recensé par les ordinateurs.
C’est l’humain qui doit dominer la donnée, et non l’inverse.