Accéder au contenu principal
AccueilPython

Cursus

Ingénieur professionnel en données en Python

Plongez profondément dans les compétences avancées et les outils de pointe qui révolutionnent les rôles d'ingénierie des données aujourd'hui avec notre cursus Professional Data Engineer.
Démarrez le parcours gratuitement

Inclus avecPremium or Teams

PythonIngénierie des données40 heures

Créez votre compte gratuit

ou

En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données sont stockées aux États-Unis.
Group

Formation de 2 personnes ou plus ?

Essayer DataCamp for Business

Apprécié par les apprenants de milliers d’entreprises

Description du cursus

Ingénieur professionnel en données en Python

Faites passer vos compétences au niveau supérieur grâce à notre cursus d'ingénieur professionnel en données. Ce cursus avancé est conçu pour s'appuyer sur les cursus d'ingénieur de données associé en SQL et d'ingénieur de données en Python. Il vous permet d'acquérir les connaissances et les outils de pointe nécessaires à l'exercice des fonctions modernes d'ingénierie des données. Tout au long de ce parcours, vous maîtriserez les architectures de données modernes, améliorerez vos compétences en Python avec une plongée en profondeur dans la programmation orientée objet, explorerez les bases de données NoSQL et exploiterez la puissance de dbt pour une transformation transparente des données. Découvrez les secrets de DevOps avec des pratiques essentielles, des techniques de test avancées et des outils tels que Docker pour rationaliser vos processus de développement et de déploiement. Plongez dans les technologies big data avec PySpark et atteignez la maîtrise du traitement des données et de l'automatisation à l'aide de scripts shell. Participez à des projets pratiques et attaquez-vous à des ensembles de données du monde réel pour appliquer vos connaissances, déboguer des flux de travail complexes et optimiser les processus de données. En suivant ce cursus, vous acquerrez non seulement les compétences avancées nécessaires pour conquérir des défis complexes en matière d'ingénierie des données, mais aussi la confiance nécessaire pour les appliquer dans le monde dynamique de l'ingénierie des données.

Conditions préalables

Ingénieur de données
  • Course

    1

    Understanding Modern Data Architecture

    Discover modern data architecture's key components, from ingestion and serving to governance and orchestration.

  • Course

    This course introduces dbt for data modeling, transformations, testing, and building documentation.

  • Course

    Conquer NoSQL and supercharge data workflows. Learn Snowflake to work with big data, Postgres JSON for handling document data, and Redis for key-value data.

  • Course

    In this Introduction to DevOps, you’ll master the DevOps basics and learn the key concepts, tools, and techniques to improve productivity.

  • Course

    Maîtrisez les tests Python : Apprenez des méthodes, créez des vérifications et assurez-vous d'un code sans erreur avec pytest et unittest.

  • Project

    Bonus

    Debugging Code

    Sharpen your debugging skills to enhance sales data accuracy.

  • Course

    10

    Introduction à Docker

  • Course

    Master PySpark to handle big data with ease—learn to process, query, and optimize massive datasets for powerful analytics!

  • Chapter

    This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.

  • Chapter

    The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.

  • Chapter

    In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.

  • Chapter

    In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.

  • Chapter

    In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.

  • Course

    Learn about the difference between batching and streaming, scaling streaming systems, and real-world applications.

  • Course

    Master Apache Kafka! From core concepts to advanced architecture, learn to create, manage, and troubleshoot Kafka for real-world data streaming challenges!

  • Course

    In this course, you will learn the fundamentals of Kubernetes and deploy and orchestrate containers using Manifests and kubectl instructions.

Ingénieur professionnel en données en Python
13 Cours
Piste
terminée

Obtenez un certificat de réussite

Ajoutez ces informations d’identification à votre profil LinkedIn, à votre CV ou à votre CV
Partagez-le sur les réseaux sociaux et dans votre évaluation de performance

Inclus avecPremium or Teams

S'inscrire maintenant

Rejoignez plus de 16 millions d’apprenants et commencer Ingénieur professionnel en données en Python dès aujourd'hui !

Créez votre compte gratuit

ou

En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données sont stockées aux États-Unis.