Johns Hopkins University
Spécialisation Big Data Processing Using Hadoop

Ce spécialisation n'est pas disponible en Français (France)

Nous sommes actuellement en train de le traduire dans plus de langues.
Johns Hopkins University

Spécialisation Big Data Processing Using Hadoop

Master Big Data Processing with Hadoop. Gain hands-on experience with Hadoop tools and techniques to efficiently process, analyze, and manage big data in real-world applications.

Karthik Shyamsunder

Instructeur : Karthik Shyamsunder

Inclus avec Coursera Plus

Approfondissez votre connaissance d’un sujet
niveau Intermédiaire

Expérience recommandée

3 mois
à 5 heures par semaine
Planning flexible
Apprenez à votre propre rythme
Approfondissez votre connaissance d’un sujet
niveau Intermédiaire

Expérience recommandée

3 mois
à 5 heures par semaine
Planning flexible
Apprenez à votre propre rythme

Ce que vous apprendrez

  • Gain expertise in Hadoop ecosystem components like HDFS, YARN, and MapReduce for big data processing and management across various tasks.

  • Learn to set up, configure, and utilize tools like Hive, Pig, HBase, and Spark for efficient data analysis, processing, and real-time management.

  • Develop advanced programming techniques for MapReduce, optimization methods, and parallelism strategies to handle large-scale data sets effectively.

  • Understand the architecture and functionality of Hadoop and its components, applying them to solve complex data challenges in real-world scenarios.

Compétences que vous acquerrez

  • Catégorie : HDFS Architecture and Management
  • Catégorie : Big Data Workflow Optimization
  • Catégorie : Hive Query Execution
  • Catégorie : NoSQL Database Management
  • Catégorie : Pig Latin Scripting
  • Catégorie : MapReduce Programming and Optimization
  • Catégorie : Data Processing with Apache Spark
  • Catégorie : Hadoop Cluster Configuration and Setup
  • Catégorie : Hadoop Configuration
  • Catégorie : Specialized File Structures
  • Catégorie : HDFS Architecture and Components
  • Catégorie : HDFS CRUD Operations
  • Catégorie : Data Compression Techniques
  • Catégorie : Installing and Configuring Hadoop
  • Catégorie : Operating Hadoop Environments
  • Catégorie : Exploring Hadoop Architecture
  • Catégorie : Hadoop Ecosystem Components
  • Catégorie : Understanding Big Data Concepts
  • Catégorie : MapReduce Optimization Techniques
  • Catégorie : YARN Architecture and Capabilities
  • Catégorie : Mapper and Reducer Parallelism
  • Catégorie : MapReduce Programming Paradigm
  • Catégorie : Advanced MapReduce Concepts
  • Catégorie : Spark Data Processing and Analytics
  • Catégorie : Hadoop Ecosystem Integration and Optimization
  • Catégorie : Hive Querying and Data Management

Détails à connaître

Certificat partageable

Ajouter à votre profil LinkedIn

Enseigné en Anglais
Récemment mis à jour !

janvier 2025

Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Emplacement réservé

Améliorez votre expertise en la matière

  • Acquérez des compétences recherchées auprès d’universités et d’experts du secteur
  • Maîtrisez un sujet ou un outil avec des projets pratiques
  • Développez une compréhension approfondie de concepts clés
  • Obtenez un certificat professionnel auprès de Johns Hopkins University
Emplacement réservé
Emplacement réservé

Obtenez un certificat professionnel

Ajoutez cette qualification à votre profil LinkedIn ou à votre CV

Partagez-le sur les réseaux sociaux et dans votre évaluation de performance

Emplacement réservé

Spécialisation - 4 séries de cours

Ce que vous apprendrez

  • Define Big Data, explore its relevance in analytics and data science, and understand trends shaping modern data processing technologies.

  • Examine Hadoop architecture, its ecosystem, and subprojects, distinguishing distributions and their roles in Big Data solutions.

  • Acquire practical skills to install, configure, and run Hadoop on a Linux virtual machine, enabling effective Big Data processing.

Compétences que vous acquerrez

Catégorie : Installing and Configuring Hadoop
Catégorie : Operating Hadoop Environments
Catégorie : Exploring Hadoop Architecture
Catégorie : Hadoop Ecosystem Components
Catégorie : Understanding Big Data Concepts

Ce que vous apprendrez

  • Understand HDFS architecture, components, and how it ensures scalability and availability for big data processing.

  • Learn to configure Hadoop for Java programming and perform file CRUD operations using HDFS APIs.

  • Master advanced HDFS programming concepts like compression, serialization, and working with specialized file structures like Sequence and Map files.

Compétences que vous acquerrez

Catégorie : Hadoop Configuration
Catégorie : Specialized File Structures
Catégorie : HDFS Architecture and Components
Catégorie : HDFS CRUD Operations
Catégorie : Data Compression Techniques

Ce que vous apprendrez

  • Learn the fundamentals of YARN and MapReduce architectures, including how they work together to process large-scale data efficiently.

  • Understand and implement Mapper and Reducer parallelism in MapReduce jobs to improve data processing efficiency and scalability.

  • Apply optimization techniques such as combiners, partitioners, and compression to enhance the performance and I/O operations of MapReduce jobs.

  • Explore advanced concepts like multithreading, speculative execution, input/output formats, and how to avoid common MapReduce anti-patterns.

Compétences que vous acquerrez

Catégorie : MapReduce Optimization Techniques
Catégorie : YARN Architecture and Capabilities
Catégorie : Mapper and Reducer Parallelism
Catégorie : MapReduce Programming Paradigm
Catégorie : Advanced MapReduce Concepts

Ce que vous apprendrez

  • Learn to set up and configure Hive, Pig, HBase, and Spark for efficient big data analysis and processing within the Hadoop ecosystem.

  • Master Hive’s SQL-like queries for data retrieval, management, and optimization using partitions and joins to enhance query performance.

  • Understand Pig Latin for scripting data transformations, including the use of operators like join and debug to process large datasets effectively.

  • Gain expertise in NoSQL databases with HBase for real-time read/write operations, and use Spark’s core programming model for fast data processing.

Compétences que vous acquerrez

Catégorie : Spark Data Processing and Analytics
Catégorie : Hadoop Ecosystem Integration and Optimization
Catégorie : Hive Querying and Data Management
Catégorie : Pig Latin Scripting
Catégorie : NoSQL Database Management

Instructeur

Karthik Shyamsunder
Johns Hopkins University
4 Cours143 apprenants

Offert par

Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.
Étudiant(e) depuis 2018
’Pouvoir suivre des cours à mon rythme à été une expérience extraordinaire. Je peux apprendre chaque fois que mon emploi du temps me le permet et en fonction de mon humeur.’
Jennifer J.
Étudiant(e) depuis 2020
’J'ai directement appliqué les concepts et les compétences que j'ai appris de mes cours à un nouveau projet passionnant au travail.’
Larry W.
Étudiant(e) depuis 2021
’Lorsque j'ai besoin de cours sur des sujets que mon université ne propose pas, Coursera est l'un des meilleurs endroits où se rendre.’
Chaitanya A.
’Apprendre, ce n'est pas seulement s'améliorer dans son travail : c'est bien plus que cela. Coursera me permet d'apprendre sans limites.’
Emplacement réservé

Ouvrez de nouvelles portes avec Coursera Plus

Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.

Faites progresser votre carrière avec un diplôme en ligne

Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne

Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires

Améliorez les compétences de vos employés pour exceller dans l’économie numérique

Foire Aux Questions