Le challenge du Big data est de donner du sens à une masse de données pour aboutir à des cas d’usage générateurs de valeur. Pour se lancer, le meilleur costume est celui de la start-up, dans une dynamique « New Way of Working » : faire émerger les idées, incuber, mobiliser et démultiplier. Ce modèle est le meilleur vecteur pour apporter flexibilité, échange, interaction avec une mixité de profils. S’il fallait quelques mots pour résumer l’esprit dans lequel mener les projets Big data et plus largement les projets de valorisation des données, nous choisirions : créativité, agilité, rythme, expérimentation, simplicité, pluridisciplinarité.
1 – L’IDÉATION
L’émergence des idées est une étape essentielle de prise de recul ayant pour objectif de porter un regard nouveau sur le marché et sur ses propres activités. C’est au travers d’ateliers de créativité que des idées en rupture peuvent émerger. Pour être efficace, cette étape doit être structurée et encadrée : définir les domaines à balayer, identifier les acteurs à réunir par domaine métier, les associer à des acteurs de la DSI et à des spécialistes de la données (Data scientists). L’animation est structurante, elle suit des méthodes éprouvées de dynamisation de la créativité. Cette première phase permet de faire émerger les idées les plus prometteuses pour les confronter à l’incubation. Elle peut être renouvelée périodiquement.
2 – L’INCUBATION
L’incubation a pour objectif de concrétiser rapidement les idées sélectionnées. C’est le moment d’affiner ces idées, de vérifier leur faisabilité, de les mettre en œuvre sur de premiers périmètres à coût maîtrisé et de vérifier leur intérêt. Il s’agit ici de combiner l’approche agile avec le mode projet Test & Learn en privilégiant l’obtention de résultats tangibles sur ces petits périmètres d’expérimentation avant un déploiement à grande échelle. Pour s’assurer de la dynamique d’ensemble et de l’aboutissement des résultats qu’ils soient positifs ou négatifs, la démarche doit suivre un rythme très cadencé et favoriser le collectif. Il faut s’autoriser à réajuster autant que nécessaire l’idée et sa concrétisation jusqu’à être convaincu de leur intérêt et de leur capacité à être industrialisées. L’expérimentation permet de prendre concrètement la mesure de l’impact de ces nouvelles technologies et usages sur les équipes informatiques et métiers. Elle permet aussi de capitaliser sur les erreurs commises, normales à ce stade de maturité dans l’exploitation des données et étant donné le foisonnement des technologies.
Les premières expérimentations et premiers projets doivent privilégier la simplicité. Cette simplicité s’entend d’abord par un nombre limité de directions consommatrices. Le résultat attendu doit également être sans impact direct sur le marché et les clients, pour limiter l’effet d’un éventuel échec. Pour finir, se focaliser en priorité sur une seule dimension de la data permet de minimiser la complexité de l’architecture à mettre en œuvre. Aujourd’hui, dans la pratique, nous constatons que nos clients se focalisent principalement sur la volumétrie du Big data.
L’aspect variété des données est souvent limité en raison d’une plus grande complexité d’intégration. Un bon niveau de maturité est nécessaire pour explorer toutes les dimensions du Big data et faire valoir toutes ses promesses.
Le diagramme de Venn ci-dessous illustre ce constat et décrit une démarche progressive pour complexifier peu à peu les cas d’usage et leur donner de la valeur. En un mot, la stratégie gagnante consiste à définir des petits périmètres et à les conquérir pas à pas.
3 – LA MOBILISATION
La réussite de la démarche repose sur la mobilisation des bonnes personnes au bon moment. L’organisation la plus évidente consiste à mettre en place une équipe cœur, rassemblant et impliquant une large diversité de profils et compétences clés (« sachant » à connaissance métier large, Data scientist, architecte SI, spécialiste des démarches de créativité, juriste…). Cette équipe cœur vient animer plusieurs équipes pluridisciplinaires mises en place sur des durées plus courtes pour participer à l’idéation et à l’incubation sur des thèmes ciblés. L’équipe cœur est là pour dynamiser l’ensemble et capitaliser progressivement, tout en diffusant les nouveaux modes de travail et les nouvelles compétences. Elle fournit les méthodes et les outils.
La compétence clé d’analyse des méga-données doit au départ être centralisée, l’équipe cœur formant ainsi un guichet unique accélé- rant l’émergence et le test des idées. L’équipe cœur aura aussi pour but de préparer la phase suivante, c’est-à-dire l’intégration de la culture de la donnée dans les gènes et dans le fonctionnement courant de l’entreprise. Elle doit identifier les moments clés où les solutions et plates-formes techniques associées doivent être industrialisées. Elle va pour cela aussi mener des actions plus largement visibles comme des concours d’innovation, des actions de communication, la mise en place de démonstrateurs, avec deux objectifs : légitimer et acculturer. Dans le cas présent, la difficulté va être d’obtenir et de maintenir cette mobilisation de ressources clés alors que les bénéfices directs sont au départ incertains. Un sponsorship fort est nécessaire, de même que le recours à des accélérateurs externes pour parvenir rapidement à des résultats tangibles.
4 – LA DÉMULTIPLICATION
Une fois les premiers retours d’expérience obtenus, il est indispensable de transformer très rapidement ces expérimentations en projets pour accompagner la transformation et éviter l’effet soufflet. Pour aller de l’incubation à la démultiplication, un socle est à construire. Ce socle a 3 piliers : les compétences, le Data Management, le système d’information.
Pilier 1 : les compétences
Pour être en mesure de tirer tout le potentiel des technologies et des données à disposition, une filière Data est à construire pour réorienter une part des profils en place et s’assurer d’une parfaite cohérence avec la transformation engagée. Cette réorientation va passer par une étape d’acculturation puis de formation complémentaire.
Pilier 2 : le Data Management
Tirer la valeur des données est réalisable seulement si l’on connaît le sens des données et que celles-ci sont fiables. Nombre de données internes sont détournées de leur usage premier du fait de systèmes d’information trop permissifs, rendant impossible toute analyse fiable. Pour mener à bien cette mise en valeur de la donnée, des principes d’architecture doivent être intégrés aux processus de gestion et d’évolution des systèmes d’information. Par ailleurs, l’application de règles de sécurité, d’accès, de ségrégation et d’anonymisation doivent garantir la confidentialité.
Ces règles et principes sont pilotés à travers une gouvernance du Data Management qui se décline comme suit :
• Sur l’axe métier, il convient de construire un dictionnaire des données, d’identifier de nouvelles sources de données, de veiller au respect de la réglementation, de valoriser et même éventuellement d’identifier les données « monétisables ». La monétisation est encore peu évoquée par les assureurs mais elle pourrait permettre de pérenniser les démarches de Data Management.
• Sur l’axe fonctionnel, des propriétaires de données doivent être investis d’un rôle de garant de la fiabilité des données et de leur cycle de vie.
• Sur l’axe applicatif, un effort doit être consacré à la modélisation des formats canoniques et à la construction des architectures favorisant l’unicité et le partage des données.
• Enfin, sur l’axe technique, il est nécessaire de construire des offres de services adaptées, optimiser la sauvegarde et l’archivage, sans oublier de suivre et anticiper les augmentations de volumes de données.
La mise en place d’un Data Management structuré est un accélérateur indispensable pour gagner en visibilité sur son patrimoine Data. Elle est à faire vivre et à enrichir avec les données externes qui seront jugées utiles mais également avec la mise en commun de l’ensemble des sources, notamment internes. Pour franchir cette étape, la confiance des différentes entités sur l’utilisation des données est requise. Ce sujet peut être un frein dans certaines organisations. Il est à ce titre nécessaire que chacun prenne conscience de l’augmentation de la valeur des données grâce à la mutualisation de celles-ci.
Pilier 3 : le système d’information
En phase d’industrialisation, l’agilité qui était requise en phase d’incubation va se confronter à la roadmap des projets pluri-annuels et aux maintenances des systèmes existants. L’organisation en place va devoir s’adapter aux besoins de réactivité des projets Big data. Cette exigence est déroutante pour une majorité de structures organisées autour des méthodologies de cycle en V où l’anticipation est la règle. De nouveaux process industriels techniques sont donc à adapter voire à inventer.
À titre d’exemple, il est nécessaire d’être en capacité de mettre rapidement en place de nouveaux flux de données entre systèmes, sans pour autant dégrader les exigences de sécurité, ni la capacité à absorber une masse d’activité importante par ailleurs. Le SI doit se doter de plateformes de management de la donnée adaptées aux différents usages. Ces plateformes sont à intégrer dans l’architecture du SI, qui doit elle-même progressivement s’urbaniser, au travers d’une rationalisation des référentiels et des données.