Organisme de Formation aux technologies et métiers de L'informatique

Formation Big Data - Les fondamentaux de l'analyse de données

Acquérir une première expérience du Big Data

Informations générales

BIG540
3 jours (21h)
2 390 €HT

Objectifs

Après ce cours, vous serez capable de :

  • Identifier le rôle stratégique de la gestion des données pour l'entreprise
  • Identifier ce qu'est la donnée, et en quoi consiste le fait d'assurer la qualité de données
  • Synthétiser le cycle de vie de la donnée
  • Assurer l'alignement des usages métiers avec le cycle de vie de la donnée
  • Découvrir les bonnes pratiques en matière de contrôle de qualité des données
  • Assurer la mise en œuvre de la gouvernance de la donnée
  • Disposer d'un premier aperçu des possibilités de traitement proposé par MapR et Hadoop

Public

Ce cours s'adresse avant tout aux personnes suivantes :

  • MOA, chef de projet, urbaniste fonctionnel, responsable de domaine, analystes, développeurs, data miners …
  • Futurs data scientists, data analysts et data stewards

Prérequis

Pour suivre ce cours, vous devez déjà posséder les connaissances suivantes :

  • Si aucune connaissance technique particulière n'est nécessaire, il est toutefois recommandé d'avoir suivi le module Big Data - Enjeux et perspectives (BD500) pour suivre cette formation dans des conditions optimales
  • Une connaissance de SQL est un plus pour suivre cette formation

Programme de la formation

Comprendre les besoins métier pour livrer aux décideurs des indicateurs fiables et pertinents, tel est le rôle attendu des spécialistes Big Data. Précisément conçu pour leur apporter une première approche de la mise en œuvre d'une solution de Big Data en environnement Hadoop, solution phare pour les traitements Big Data, ce programme reprend le cheminement logique d'un projet d'analyse de données. De leur collecte initiale à la mise en place d'une solution de stockage HDFS permettant d'organiser un très grand volume d'information, à l'initiation a la réalisation de programmes Pig et Hive qui, convertis en tâches MapReduce, permettent d'agréger et de filtrer les données pour finalement les analyser, tous les aspects seront abordés.

Les nouvelles frontières du Big Data (Introduction)

  • Immersion
  • L'approche des 4 Vs
  • Cas d'usages du Big Data
  • Technologies
  • Architecture
  • Master-less vs Master-Slaves
  • Stockage
  • Machine Learning
  • Data Scientist & Big Data
  • Compétences
  • La vision du Gartner
  • Valeur ajoutée du Big Data en entreprise

La collecte des données Big Data

  • Typologie des sources
  • Les données non structurées
  • Typologie 3V des sources
  • Les données ouvertes (Open Data)
  • Caractéristiques intrinsèques des sources
  • Nouveau paradigme de l'ETL à l'ELT
  • Du schema On Write au Schema on Read
  • Le concept du Data Lake
  • La vision d'Hortonworks
  • Les collecteurs Apache on Hadoop
  • SQOOP versus NIFI
  • Apache SQOOP - Présentation
  • Apache NIFI - Présentation
  • Les API de réseaux sociaux
  • Lab : Ingestion de données dans un cluster avec Apache NIFI

Le calcul massivement parallèle

  • Genèse et étapes clés
  • Hadoop : Fonctions coeurs
  • HDFS - Différenciation
  • HDFS - Un système distribué
  • HDFS - Gestion des blocs et réplication
  • Exemples de commandes de base HDFS
  • MapReduce : aspects fonctionnels et techniques
  • Apache PIG et Apache HIVE
  • Comparatif des 3 approches
  • Les limitations de MapReduce
  • L'émergence de systèmes spécialisés
  • Le moteur d'exécution Apache TEZ
  • La rupture Apache SPARK
  • SPARK point clés principaux
  • SPARK vs Hadoop Performance
  • L'écosystème SPARK
  • IMPALA - Moteur d'exécution scalable natif SQL
  • Le moteur d'exécution Apache TEZ
  • Hive in Memory : LLAP
  • Big Deep Learning
  • La rupture Hardware à venir
  • Labs : Exemples de manipulations HDFS + HIVE et Benchmark moteurs d'exécutions HIVE

Les nouvelles formes de stockage

  • Enjeux
  • Le théorème CAP
  • Nouveaux standards : ACID => BASE
  • Les bases de données NoSQL
  • Panorama des solutions
  • Positionnement CAP des éditeurs NoSQL
  • Les bases de données Clé-Valeur
  • Focus Redis
  • Les Bases de données Document
  • Focus mongoDB
  • Les bases de données colonnes
  • Focus Cassandra et HBase
  • Les bases de données Graphes
  • Tendances 1 : Le NewSQL
  • Tendances 2 : OLAP distribué
  • Lab : Exemple d'utilisation d'une base NoSQL (HBASE)

Le Big Data Analytics (Partie I - Fondamentaux)

  • Analyse de cas concrets
  • Définition de l'apprentissage machine
  • Exemples de tâches (T) du machine learning
  • Que peuvent apprendre les machines ?
  • Les différentes expériences (E)
  • L'apprentissage
  • Approche fonctionnelle de base
  • Les variables prédictives
  • Les variables à prédire
  • Les fonctions hypothèses
  • Pléthore d'algorithmes
  • Choisir un algorithme d'apprentissage machine
  • Sous et sur-apprentissage
  • La descente de gradient
  • Optimisation batch et stochastique
  • Anatomie d'un modèle d'apprentissage automatique
  • La chaîne de traitement standard
  • Composantes clés et Big Data
  • Trois familles d'outils machine Learning
  • Les librairies de machine Learning standards et Deep Learning
  • Les librairies Scalables Big Data
  • Les plates-formes de Data Science
  • Lab : Exemples de traitement Machine Learning avec Notebook

Le Big Data Analytics (Partie II - L'écosystème SPARK )

  • Les différents modes de travail avec Spark
  • Les trois systèmes de gestion de cluster
  • Modes d'écriture des commandes Spark
  • Les quatre API Langage de Spark
  • Le machine Learning avec Spark
  • Spark SQL - Le moteur d'exécution SQL
  • La création d'une session Spark
  • Spark Dataframes
  • Spark ML
  • L'API pipeline
  • Travail sur les variables prédictives
  • La classification et la régression
  • Clustering et filtrage coopératif
  • Lab : Exemple d'un traitement machine learning avec Spark

Traitement en flux du Big Data (​streaming​ )

  • Architectures types de traitement de Streams Big Data
  • Apache NIFI - Description, composants et interface
  • Apache KAFKA - Description, terminologies, les APIs
  • Articulation NIFI et KAFKA (NIFI ON KAFKA)
  • Apache STORM - Description, terminologies, langage (agnostique)
  • Articulation KAFKA et STORM (KAFKA ON STORM)
  • Apache SPARK Streaming & Structured Streaming
  • Articulation KAFKA et SPARK
  • Comparatif STORM / SPARK
  • Deux cas concrets
  • Lab : Réalisation d'un traitement Big Data en Streaming (Big Data streaming analytics)

Déploiement d'un projet Big Data

  • Qu'est ce que le Cloud Computing
  • Cinq caractéristiques essentielles
  • Trois modèles de services
  • Services Cloud et utilisateurs
  • Mode SaaS
  • Mode PaaS
  • Mode IaaS
  • Modèles de déploiement
  • Tendances déploiement
  • Cloud Privé Virtuel (VPC)
  • Focus offre de Cloud Public
  • Caractéristiques communes des différentes offres de Cloud Public
  • Focus Amazon AWS
  • Focus Google Cloud Platform
  • Focus Microsoft Azure
  • Classement indicatif des acteurs
  • Points de vigilance
  • Lab : Visite d'une plate-forme de Cloud

Hadoop écosystème et distributions

  • L'écosystème Hadoop
  • Apache Hadoop - Fonctions coeurs
  • HDFS - Système de gestion de fichiers distribué (rappel)
  • Map Reduce : système de traitement distribué (rappel)
  • L'infrastructure YARN
  • YARN - Gestion d'une application
  • Docker on YARN
  • Les projets Apache principaux et associés
  • Les architectures types Hadoop
  • Les distributions Hadoop
  • Qu'est ce qu'une distribution Hadoop
  • Les acteurs aujourd'hui
  • Focus Cloudera
  • Cloudera Distribution including Apache Hadoop (CDH)
  • Focus Hortonworks
  • Hortonworks Platforms HDP & HDF
  • Nouvelle plate-forme Cloudera
  • Vision Cloudera
  • Cloudera Data Platform
  • Cloudera Data Flow
  • Lab : Visite d'une distribution Hortonworks dans le Cloud

Architectures de traitement Big Data

  • A - Traitement de données par lots (BATCH) : - le batch en Big Data - schéma de fonctionnement - usages types du batch processing - l'orchestrateur Apache OOZIE - les workflows OOZIE - les coordinateurs OOZIE (Coordinators) - limitations de OOZIE => FALCON - points de vigilance
  • B - Traitement de données en flux (Streaming) : - principes - fonctionnement - rappel : modèles types de traitement de Flux Big Data - points de vigilance
  • C - Modèles d'architecture de traitements de données Big Data : - objectifs - les composantes d'une architecture Big Data - deux modèles génériques : λ et Κ - architecture Lambda - les 3 couches de l'architecture Lambda - architecture Lambda : schéma de fonctionnement - solutions logicielles Lambda - exemple d'architecture logicielle Lambda - architecture Lambda : les + et les - - architecture Kappa - architecture Kappa : schéma de fonctionnement - solutions logicielles Kappa - architecture Kappa : les + et les -
  • L'heure du choix
  • Lab : Analyse architecturale de deux cas de figure

La gouvernance des données Big Data

  • Challenges Big Data pour la gouvernance des données
  • L'écosystème des outils de gouvernance Big Data
  • Les 3 piliers de la gouvernance Big Data
  • Mise en perspective dans une architecture Big Data
  • Management de la qualité des données Big Data
  • Tests de validation de données dans Hadoop
  • Les acteurs face à la qualité des données Big Data
  • Management des métadonnées Big Data
  • Focus Apache HCatalog
  • Focus Apache ATLAS
  • Management de la sécurité, de la conformité et la confidentialité Big Data
  • Focus Apache RANGER
  • Tendances sécurisation des SI
  • Points de vigilance
  • Lab : Réflexion collective ou individuelle sur des opportunités de projets Big Data dans l'organisation et définition des objectifs et des premiers jalons
plus d'infos

Méthode pédagogique

Un tour d'horizon complet du Big Data. Une description des principes et écosystèmes associés des systèmes distribués. Une formation très opérationnelle durant laquelle s'alternent les phases d'apports théoriques, d'échanges, de partage d'expériences. Illustration par des démonstrations des différents logiciels clés sur des cas concrets. Les retours d'expérience et conseils de consultants experts.

Méthode d'évaluation

Tout au long de la formation, les exercices et mises en situation permettent de valider et contrôler les acquis du stagiaire. En fin de formation, le stagiaire complète un QCM d'auto-évaluation.

Suivre cette formation à distance

  • Un ordinateur avec webcam, micro, haut-parleur et un navigateur (de préférence Chrome ou Firefox). Un casque n'est pas nécessaire suivant l'environnement.
  • Une connexion Internet de type ADSL ou supérieure. Attention, une connexion Internet ne permettant pas, par exemple, de recevoir la télévision par Internet, ne sera pas suffisante, cela engendrera des déconnexions intempestives du stagiaire et dérangera toute la classe.
  • Privilégier une connexion filaire plutôt que le Wifi.
  • Avoir accès au poste depuis lequel vous suivrez le cours à distance au moins 2 jours avant la formation pour effectuer les tests de connexion préalables.
  • Votre numéro de téléphone portable (pour l'envoi du mot de passe d'accès aux supports de cours et pour une messagerie instantanée autre que celle intégrée à la classe virtuelle).
  • Selon la formation, une configuration spécifique de votre machine peut être attendue, merci de nous contacter.
  • Pour les formations incluant le passage d'une certification la dernière journée, un voucher vous est fourni pour passer l'examen en ligne.
  • Pour les formations logiciel (Adobe, Microsoft Office...), il est nécessaire d'avoir le logiciel installé sur votre machine, nous ne fournissons pas de licence ou de version test.
  • Horaires identiques au présentiel.

Mis à jour le 04/12/2024