Dans un monde où les limites techniques du SI freinaient l’extension du business, le Big data promet de s’en affranchir et d’apporter plus de valeur au métier. De fait, il suscite un intérêt grandissant auprès de ces derniers mais aussi auprès des DSI ; qui commencent à étudier, expérimenter voire, pour les plus avancés, construire des offres Big data au sein de leurs systèmes d’information.
Néanmoins, choisir l’approche adéquate et investir sur une ou des solutions reste une étape complexe. Regardons de plus près le menu, et observons les différents types d’offres aujourd’hui disponibles et leur intérêt en fonction des usages.
Le Big data casse les limites traditionnelles : tout est dans la puissance du nombre
Traditionnellement, les architectures techniques sont construites à partir de serveurs « standalone». À gros besoins, gros serveurs. En d’autres termes, plus le besoin de puissance ou de stockage est important, plus les serveurs utilisés sont robustes. Mais, cette approche a une limite finie et ne permet pas de gérer les très grands ensembles de données.
Avec le Big data on change de paradigme : le concept clé des architectures Big data est la distribution ! On distribue les données et les traitements sur un nombre virtuellement infini de ressources. On exploite la puissance du nombre. C’est la clé pour casser les limites traditionnelles et accéder à une capacité de stockage et de traitement sans limites. L’ensemble des offres Big data repose sur ce principe.
Quelles sont les formules au menu du jour ?
La 1ère formule s’appuie sur le Best Of breed. Il s’agit ici de faire du Big data en intégrant et capitalisant sur ses ressources IT. Comment ? L’entreprise se construit un environnement distribué en agrégeant ses infrastructures conventionnelles via l’intégration d’une distribution logicielle Big data (de type Hadoop par exemple). N’ayant pas d’investissement matériel, le coût d’investissement pour ce type d’offre reste raisonnable mais engage les entreprises à monter en compétence pour concevoir et mettre en place la nouvelle plateforme. Ce type de solution est principalement destiné aux entreprises avec un besoin d’évolutivité et d’appropriation fort. Les banques d’investissement en sont un excellent exemple par leur nécessité d’expérimentation permanente, qui les force à innover pour répondre aux enjeux métiers.
La seconde formule s’appuie sur les offres d’« Appliance Big data» : le vendeur va proposer à ses clients une infrastructure sur étagère où matériel et logiciels sont intégrés, pré-configurés et optimisés. C’est une boîte noire, mais l’architecture interne s’appuie sur la logique de distribution : elle encapsule des dizaines de petits serveurs. Ce modèle a le désavantage d’avoir un coût d’investissement élevé mais délivre une efficacité opérationnelle immédiate : il s’adresse principalement aux entreprises qui recherchent cette efficacité et qui sont en capacité de cadrer leurs besoins avec le vendeur.
La dernière offre est légitimement le Cloud. Pourquoi le Cloud ? Et bien parce qu’il est le plus à même de mettre à disposition des entreprises un nombre de ressources presque illimité. On distingue deux offres : celles de type « IaaS » où l’entreprise intégrera elle-même « sa distribution Big data » aux infrastructures louées dans le nuage. Mais, la tendance est plutôt au « BDaaS » (Big data as a Service) : le nuage provisionne un environnement Big data intégré, opérationnel et élastique. L’intérêt de ces offres Cloud est le coût (à l’usage) et la rapidité de mise en place, qui en fait une cible parfaite pour des usages de type POC afin de tester la valeur du Big data pour l’entreprise. Pour les prototypes opérationnels, des questions autour de la sécurité et des données peuvent se poser et les rendre moins attrayantes.
Au final, les socles d’exécution Big data sont bien là ! Le choix de l’un d’entre eux nécessite dans tous les cas une phase d’analyse des besoins et des enjeux afin de trouver l’optimum économique au regard des usages.