Juvénal CHOKOGOUE

OK
À propos de Juvénal CHOKOGOUE
Consultant, Auteur et conférencier, Juvénal CHOKOGOUE intervient comme Lead Data Ingénieur sur les sujets de valorisation à large échelle des données. Son but est de vous aider vous à développer les compétences de base nécessaires pour réussir dans le Big Data. Il possède une forte expertise à la fois sur l'ingénierie que sur l'analyse des données. Il est titulaire de 6 certifications. Actuellement, à travers le projet qu'il a baptisé avec ses partenaires DTN (Data Transition Numerique), Juvénal travaille à mettre à la disposition des personnes et des organisations, des ouvrages qui leur permettront de développer des compétences nécessaires pour faire efficacement la transition vers le Numérique et saisir les opportunités du Big Data. Recevez gratuitement les travaux de Juvénal en allant la page suivante : http://www.data-transitionnumerique.com/extrait-ecosystme-hadoop/
Les clients ont aussi acheté des articles de
Êtes-vous un auteur ?
Mises à jour de l'auteur
Livres de Juvénal CHOKOGOUE
C’est pour combler ces lacunes qu’un ensemble de technologies regroupées sous le nom d’écosystème Hadoop a été développé. L'écosystème Hadoop fournit une collection d'outils et technologies spécialement conçus pour faciliter le développement, le déploiement et le support des solutions Big Data.
Le but de ce guide est de vous initier aux technologies clé du Big Data. Il fournit une vision panoramique et pragmatique des technologies principales de l’écosystème Hadoop utilisées par les entreprises pour valoriser leurs données. Il a été rédigé pour trois types de profils :
- Toute personne qui souhaite développer des compétences sur une ou plusieurs technologies particulières de l’écosystème Hadoop ;
- Toute personne qui est impliquée dans le traitement et la valorisation des données en entreprise (par exemple : chargé d’étude, statisticien, Data Scientist, Data Enginer, architecte, administrateur, DBA, etc.)
- Ou plus généralement, toute personne qui souhaite s’orienter vers le Big Data (étudiant, professionnel en reconversion)
L’objectif de l’ouvrage est double :
- Vous fournir un panorama global des technologies qui tournent autour de l’écosystème Hadoop et leur portée fonctionnelle ;
- Vous initier de façon pragmatique à 7 technologies principales de l’écosystème Hadoop, notamment Spark, Hive, Pig, HBase, Oozie, Sqoop et Kafka.
De plus, il inclut un bonus qui permet de monter en compétence sur ElasticSearch, pour apprendre l’indexation et la recherche de contenu au-delà du SQL. Vous pouvez l'obtenir en allant à l'adresse suivante : https://www.data-transitionnumerique.com/extrait-ecosystme-hadoop/
Il est écrit selon un style tutoriel pas-à-pas et vous permettra de progresser à votre rythme.
Cet ouvrage est pour tous ceux qui souhaitent s’orienter vers le Big Data.
Vous y découvrirez :
- les profils métiers vers lesquels vous orienter en Big Data
- les besoins réels des entreprises en matière de Big Data
- les 6 compétences essentielles que les entreprises impactées par le Big Data recherchent
- une présentation claire du phénomène de Big Data et les opportunités qu’il apporte à la société
Le Big Data a favorisé l’émergence de l’intelligence Artificielle. Dans l’ouvrage, nous répondons également à la question sensible :
Les robots vont-ils remplacer nos emplois ?
Nous vous dirons ce que vous devez faire pour réussir dans le Big Data.
En plus, tous les lecteurs de l’ouvrage ont droit à un bonus qui les aidera à aller plus loin dans le Big Data.
Il vous aidera à atteindre trois objectifs majeurs :
- comprendre les concepts et notions indispensables pour aborder avec aisance la gestion des données streaming, notamment la sémantique de livraison des messages (Exactement-Une Fois, Au-Moins-Une-Fois, Au-PlusUne-Fois), la sémantique de traitement, le domaine temporel, l’idempotence, le persistance anticipée de messages (Write Ahead Logging), la sémantique de résultat, les bus d’événements, les systèmes de messageries Publish/Subscribe, le fenêtrage, le micro-batch, les états, les modèles de collecte de données streaming, la cohérence streaming, la diffusion atomique, etc.
- appréhender et mettre en œuvre les architectures nécessaires pour ingérer efficacement les données générées en streaming, notamment le Data Lake, les bus d'événements, les architectures Lambda, les architectures kappa, et les architectures hybrides ;
- apprendre les technologies de l'écosystème Hadoop dédiées à l’ingestion et au traitement des données produites en streaming, notamment Apache Kafka, Spark Streaming, Flume, Apache Samza, Apache Storm et S4.
L'ouvrage est un kit d’apprentissage technique. Il a été rédigé uniquement à l’endroit de cinq types de profls :
- Le consultant ou freelance, qui veut aiguiser ses compétences BI/Big Data, en y rajoutant l’aspect streaming ;
- Le Data Scientist, qui veut développer des modèles de "Machine Learning streaming" ;
- L’architecte, qui veut comprendre les architectures des systèmes streaming et comment celles-ci s’intègrent dans le SI global d’une entreprise ;
- Le développeur, qui souhaite développer des applications streaming à large échelle ;
- et le Manager, qui veut développer une vision holistique sur la façon de capitaliser les données des projets streaming ;
Pour faciliter la compréhension de l ouvrage, chaque chapitre s achève par un rappel des points clés et un guide d étude qui permettent au lecteur de consolider ses acquis. En bonus pour vous, l'ouvrage est offert avec une mini-formation gratuite composée de 3 sessions de cours -vidéo sur le streaming librement téléchargeable sur le site web suivant : https://www.data-transitionnumerique.com/bonus_formation_streaming
Le manuel d'apprentissage de référence
Cet ouvrage est un manuel d'apprentissage technique qui a été rédigé pour toute personne souhaitant développer des compétences sur une ou plusieurs technologie(s) de l'écosystème Hadoop. Il permet d'utiliser de façon professionnelle 18 technologies clés de l'écosystème Hadoop : Spark, Hive, Pig, Impala, ElasticSearch, HBase, Lucene, HAWQ, MapReduce, Mahout, HAMA, Tez, Phoenix, YARN, ZooKeeper, Storm, Oozie et Sqoop.
L'ouvrage permet d'initier les débutants pour les emmener vers une utilisation professionnelle de ces technologies. Pour faciliter la compréhension de l'ouvrage, chaque chapitre s'achève par un rappel des points clés et un guide d'étude qui permettent au lecteur de consolider ses acquis. Des compléments web sont également disponibles en téléchargement sur le site www.editions-eyrolles.com/dl/0067478.
Au fil de la lecture de cet ouvrage, vous allez comprendre les approches conceptuelles de chacune de ces technologies pour rendre vos compétences indépendantes de l'évolution d'Hadoop. Vous serez finalement capable d'identifier les portées fonctionnelle, stratégique et managériale de chacune de ces technologies.
À qui cet ouvrage s'adresse-t-il ?
- Aux consultants BI/big data, data scientists, chargés d'études et chefs de projets data
- Aux étudiants désireux de s'orienter vers le big data
- Plus généralement, à tout professionnel souhaitant prendre le virage du big data ou souhaitant valoriser les données de son entreprise