Centre de ressources

Accueil Centre de ressources Comment le Cloud accélère la valorisation de vos données dans un environnement Big Data ?

Comment le Cloud accélère la valorisation de vos données dans un environnement Big Data ?

Les défis des entreprises en 2015

projet big dataComment gérer et traiter des quantités impressionnantes de données structurées et surtout non structurées (données issues du web, de la messagerie, des réseaux sociaux, etc.) dans les entreprises ? Tel est le défi des services informatiques dans les entreprises. Ces grands volumes de données, plus connus sous le nom de Big Data, n’ont peu ou pas encore été pris en compte par la majorité des entreprises mais les besoins se font ressentir car cette gestion des données est devenue vitale pour leur business. Quelques projets Big Data sont déjà en production et en expérimentation dans certaines entreprises spécialisées dans le retail, les telcos ou encore la banque/assurance. Ces secteurs, très concurrentiels, doivent se différencier en proposant de nouveaux services pour leur clientèle. Ils utilisent donc des solutions Big Data dotées d’équipements matériels de pointe, de bases de données ultra-performantes et d’algorithmes puissants capables de collecter, de trier et d’analyser des quantités très importantes de données. Les projets émanent d’ailleurs souvent des directions marketing.

L’intérêt des Big Data est donc de croiser, de traiter et d’analyser en temps réel ou très rapidement des données produites en entreprise mais aussi des données publiques, des
données issues du web et des données créées et partagées par des citoyens (crowdsourcing) afin de générer des applications riches en valeur ajoutée. Et pour satisfaire à ces besoins et à ces exigences, les décideurs IT dans les entreprises n’ont pas d’autre choix que de disposer d’un système d’information agile capable de prendre en compte toutes ces demandes. Mais aujourd’hui sur le terrain, et même si elles se développent rapidement, rares sont encore les infrastructures de stockage liées au Big Data capables de satisfaire à ces besoins. Plusieurs facteurs expliquent ce constat :

 

Une diversité technologique accrue et une volumétrie des données qui explose

Depuis 20 ans, des solutions hétérogènes se sont développées. Résultat : la diversité technologique est devenue difficile à gérer et à administrer correctement. Ensuite, la volumétrie a explosé. A ce titre, le cabinet IDC estime que le volume des données sera multiplié par 10 en 2020 (44 Zo d’ici à 2020 contre 4,4 Zo en 2013). L’augmentation effrénée des volumes de données est à mettre en parallèle avec l’explosion de la data mobile (usage intensif des smartphones), des usages convergents et multi-terminaux en entreprise. Fort de ce constat, on comprend mieux le phénomène du Big Data. Mais cette croissance exponentielle des données interpelle sur la gestion de leur cycle de vie, leur qualité, leur sécurité et leur traitement.

 

Des données majoritairement non structurées

Il y a 15 ans, les données étaient à 80 % structurées pour 20 % d’informations non structurées. Aujourd’hui, c’est l’inverse, 80 % de ce volume concerne structure des données
désormais des données non structurées. Et face à ces dernières, les entreprises sont confrontées aux limites des systèmes existants de base de données relationnelles qui ne sont plus à même de les traiter et de les analyser de manière optimale. Le datawarehouse ne peut donc pas se risquer de s’isoler de plus des 3/4 des données produites. De plus, le poids de la donnée non structurée est extrêmement important, ce qui dégrade d’autant les performances.

 

Des équipements technologiquement peu adaptés

Dans l’entreprise, la vétusté des équipements et le manque de solutions adaptées ne permettent plus de réaliser, en toute simplicité et en toute sécurité, des sauvegardes régulières et une hiérarchisation intelligente du stockage. Les espaces disques sont ainsi souvent sous-exploités avec un taux d’occupation inférieur à 50 %. De ce fait, une majorité d’entreprises est toujours dans cette phase d’ajouter des baies et des contrôleurs supplémentaires pour faire face à la volumétrie. De plus, les solutions actuelles déployées dans les entreprises ne sont pas forcément adaptées à hiérarchiser toutes ces données et à les traiter en temps réel ou presque.

 

Une pénurie de compétences

Parallèlement, les entreprises font aussi face à un déficit en compétences nécessaires (appelées datascientists) pour exploiter les possibilités compétence big dataqu’offre le croisement des « Big Data » avec l’analyse de données.

Il faut dire que les opérations à réaliser (chargement de données, extraction, transformation, traitement, etc.) réclament une certaine expertise dans ce domaine. Enfin, la gouvernance dans la gestion des données doit être repensée en prenant en compte tout type de données. L’objectif est donc de reconsidérer le cycle de vie de la donnée et de sa valeur à long terme.

 

La solution : le Cloud, un accélérateur dans la valorisation des données

Face aux constats précédemment cités, les entreprises ont-elles encore les moyens financiers et les possibilités techniques et humaines de transformer leur infrastructure pourcloud valorisateur de données
répondre aux exigences des Big Data ? Une chose est sûre, pour relever le défi du Big Data, il faut un changement radical et aller vers des outils et des environnements adaptés. Le Cloud représente ainsi le moyen qui peut faciliter l’accès aux Big Data pour les entreprises en s’affranchissant de toutes ces contraintes, techniques et humaines, tout en maîtrisant leur budget. 

En effet, le Cloud permet de disposer d’une mise à jour permanente des solutions et des équipements et de répondre aux problématiques de sécurité et de respect des données sensibles grâce aux garanties offertes. L’objectif du Cloud est d’offrir aux entreprises les processus, les méthodologies et les solutions capables de rassembler des informations, de leur donner du sens et de les présenter pour qu’elles soient utiles à la prise de décision. Bref, le Cloud se doit d’accompagner les entreprises dans leurs projets Big Data en leur offrant un véritable outil d’aide à la décision.

 

Les avantages du Cloud pour les environnements Big Data

 

Une mise à disposition d’outils de dernière génération pour créer une véritable banque de données de proximité

servicesEn exploitant le Cloud, les entreprises bénéficient de briques spécifiques à la gestion des Big Data pour collecter et centraliser au mieux les données quelle que soit leur source, d’en faire une analyse plus fine et leur donner ainsi plus de valeur. Cela passe donc par l’utilisation de nouveaux modèles de base de données exploitant notamment des approches mixtes entre bases de données relationnelles et non-relationnelles (NoSQL) et par des services d’import pour collecter des grands volumes de données.

Cela passe aussi par une architecture distribuée au niveau du traitement des données non structurées, c’est-à-dire le besoin de répartir la charge sur un grand nombre de serveurs (cluster de serveurs) grâce à une abstraction totale des mécanismes de parallélisation sous-jacents (principe d’Hadoop), puis par l’adoption de systèmes de stockage basés sur la technologie flash ou de type « In Memory » pour obtenir un niveau de service optimal (gros débit et faible latence). Enfin, cela passe par la virtualisation, l’automatisation et l’orchestration pour simplifier la gestion des données. Cette couche de virtualisation est architecturée en respectant les principes de base d’Hadoop, notamment le principe de localisation, ceci afin d’offrir les meilleures performances.

 

Une qualité d’accès aux données

A l’heure des Big Data qui réclament des débits très importants et une garantie sur la qualité des accès aux données, bâtir un réseau de stockage de type SANqualité d'accès aux données en interne, n’est pas un choix vraiment judicieux. Il est plutôt préférable de se tourner vers une infrastructure spécifique combinant les avantages d’un DAS (technologie de stockage distribuée en attachement direct aux machines virtuelles), d’un traitement optimisé en cluster via un Hadoop mutualisé. Cette configuration apporte non seulement des performances (temps de traitement divisé par deux en passant d’un SAN à un DAS mutualisé et par 8 après l’optimisation du Cluster) mais aussi une faible latence. Résultat : les débits sont réellement garantis (fini les goulots d’étranglement d’un SAN indépendant d’une infrastructure serveur).

 

Une gestion de la volumétrie et une sécurité des données

volumétrie et sécurité des donnéesPour faire face à l’augmentation effrénée des données dans les environnements Big Data, le Cloud sait répondre rapidement aux besoins de ressources supplémentaires sans coûts jugés extravagants (prix souvent basé sur le volume des données et la durée d’utilisation). Cette mise à disposition des ressources doit se faire dans les minutes après la demande.

L’objectif étant pour les entreprises d’avoir une perception de capacité infinie, une perception d’une disponibilité non-stop et une élasticité, afin de déployer des nouveaux services dans les plus brefs délais pour mieux cibler leurs clients et créer ainsi de nouvelles opportunités de business. De plus, le Cloud apporte aujourd’hui plus de sécurité pour prévenir et protéger des menaces externes et internes et sait répondre aux problématiques de respect des données sensibles et de réversibilité grâce aux garanties prévues dans les contrats des fournisseurs. D’autre part, les entreprises ont tendance à privilégier un Cloud « made in France » afin de connaître le lieu où sont stockées les données.  

 

Un délai de livraison fortement réduit

La mise en place d’un projet Big Data peut s’avérer complexe en interne. Suivant les projets, entre le déploiement et les phases d’expérimentation et de réduction délai de livraisonproduction, il peut s’écouler des semaines voire des mois pour qu’un environnement soit vraiment opérationnel. Le Cloud permet de simplifier et d’accélérer tous ces cycles pour une mise sur le marché (time to market) dans les plus brefs délais. Avec le Cloud, l’entreprise a donc la possibilité de tester une mise en production d’un environnement à moindre coût grâce au paiement à l’usage. Cette flexibilité financière permet d’ailleurs de monter rapidement des architectures pour exécuter plusieurs mises en production.

 

Une simplification des processus pour les entreprises

En optant pour le Cloud pour démarrer un projet Big Data, les entreprises simplifient leurs processus (déport de la complexité vers leur fournisseur) et créent ainsi les conditions d’une collaboration constructive entre les décideurs IT, les métiers et les équipes de leur fournisseur de services. 

Ces conditions favorables permettent ainsi de mieux réfléchir aux besoins du projet Big Data et de son évolution, d’optimiser les coûts, d’améliorer la visibilité et la conformité du projet et surtout de profiter de la compétence accrue des équipes des fournisseurs de services Cloud.

simplification du processus