Pratique pour l'examen | Ingénierie des données Azure DP-203
Préparez-vous à l'examen Microsoft Azure DP-203 : Ingénierie des données sur Microsoft Azure

Pratique pour l'examen | Ingénierie des données Azure DP-203 free download
Préparez-vous à l'examen Microsoft Azure DP-203 : Ingénierie des données sur Microsoft Azure
Afin de définir des attentes réalistes, veuillez noter : Ces questions ne sont PAS des questions officielles que vous trouverez sur l'examen officiel. Ces questions couvrent tout le matériel décrit dans les sections de connaissances ci-dessous. Beaucoup de questions sont basées sur des scénarios fictifs qui contiennent des questions posées.
Les exigences de connaissances officielles pour l'examen sont revues régulièrement pour s'assurer que le contenu a les dernières exigences incorporées dans les questions pratiques. Les mises à jour du contenu sont souvent effectuées sans notification préalable et peuvent être modifiées à tout moment.
Beaucoup de questions ont à la fois le terme anglais et la traduction française car plusieurs termes et fonctions de Microsoft sont en anglais. De cette façon, vous serez en mesure de reconnaître les composants que vous rencontrerez dans Microsoft.
Chaque question a une explication détaillée et des liens vers des documents de référence pour soutenir les réponses qui garantissent l'exactitude des solutions aux problèmes.
L'ordre des questions sera changé chaque fois que vous répéterez les tests. Vous aurez donc besoin de savoir pourquoi une réponse est correcte, et pas seulement que la réponse correcte était l'item "B" la dernière fois que vous avez passé le test.
REMARQUE : Ce cours ne doit pas être votre seul matériel d'étude pour vous préparer à l'examen officiel. Ces tests pratiques sont destinés à compléter le matériel d'étude de sujet.
Si vous rencontrez du contenu qui nécessite votre attention, veuillez envoyer un message avec une capture d'écran du contenu qui nécessite votre attention et je serai examiné dans les plus brefs délais. Le fait de fournir le numéro du test et de la question n'identifie pas les questions, car les questions changent à chaque fois qu'elles sont exécutées. Les numéros de questions sont différents pour chacun.
En tant que candidat à cet examen, vous devez posséder une expertise en la matière dans l'intégration, la transformation et la consolidation de données provenant de divers systèmes de données structurées, non structurées et en streaming dans un schéma approprié pour créer des solutions d'analyse.
En tant qu'ingénieur de données Azure, vous aidez les parties prenantes à comprendre les données grâce à l'exploration, et à créer et maintenir des pipelines de traitement de données sécurisés et conformes en utilisant différents outils et techniques. Vous utilisez divers services et frameworks de données Azure pour stocker et produire des ensembles de données nettoyés et améliorés à des fins d’analyse. Ce magasin de données peut être conçu avec différents modèles d'architecture en fonction des exigences de l'entreprise, notamment :
Entrepôt de données de gestion (MDW)
Big Data
Architecture de Lakehouse
En tant qu'ingénieur de données Azure, vous contribuez également à garantir que l'opérationnalisation des pipelines de données et des magasins de données est performante, efficace, organisée et fiable, compte tenu d'un ensemble d'exigences et de contraintes commerciales. Vous aidez à identifier et à résoudre les problèmes opérationnels et de qualité des données. Vous concevez, mettez en œuvre, surveillez et optimisez également les plateformes de données pour répondre aux pipelines de données.
En tant que candidat à cet examen, vous devez avoir de solides connaissances des langages informatiques, notamment :
SQL
Python
Échelle
Vous devez comprendre les modèles de traitement parallèle et d’architecture de données. Vous devez maîtriser les éléments suivants pour créer des solutions de traitement de données :
Usine de données Azure
Azure Synapse Analytics
Azure Stream Analytics
Centres d'événements Azure
Stockage Azure Data Lake
Azure Databricks
Compétences en un coup d'œil
Concevoir et mettre en œuvre le stockage de données (15 à 20 %)
Développer le traitement des données (40-45%)
Sécurisez, surveillez et optimisez le stockage et le traitement des données (30 à 35 %)
Concevoir et mettre en œuvre le stockage de données (15 à 20 %)
Mettre en œuvre une stratégie de partition
Implémenter une stratégie de partitionnement pour les fichiers
Mettre en œuvre une stratégie de partitionnement pour les charges de travail analytiques
Mettre en œuvre une stratégie de partition pour les charges de travail en streaming
Implémenter une stratégie de partition pour Azure Synapse Analytics
Identifiez quand le partitionnement est nécessaire dans Azure Data Lake Storage Gen2
Concevoir et mettre en œuvre la couche d'exploration des données
Créez et exécutez des requêtes à l'aide d'une solution de calcul qui exploite SQL sans serveur et le cluster Spark.
Recommander et implémenter des modèles de base de données Azure Synapse Analytics
Transférer le lignage de données nouveau ou mis à jour vers Microsoft Purview
Parcourir et rechercher des métadonnées dans Microsoft Purview Data Catalog
Développer le traitement des données (40-45%)
Ingérer et transformer des données
Concevoir et mettre en œuvre des charges incrémentielles
Transformez les données à l'aide d'Apache Spark
Transformez les données à l'aide de Transact-SQL (T-SQL) dans Azure Synapse Analytics
Ingérer et transformer des données à l'aide d'Azure Synapse Pipelines ou d'Azure Data Factory
Transformez les données à l'aide d'Azure Stream Analytics
Nettoyer les données
Gérer les données en double
Éviter les données en double en utilisant Azure Stream Analytics Exactly Once Delivery
Gérer les données manquantes
Gérer les données arrivant tardivement
Fractionner les données
Détruire JSON
Encoder et décoder les données
Configurer la gestion des erreurs pour une transformation
Normaliser et dénormaliser les données
Effectuer une analyse exploratoire des données
Développer une solution de traitement par lots
Développer des solutions de traitement par lots à l'aide d'Azure Data Lake Storage, Azure Databricks, Azure Synapse Analytics et Azure Data Factory
Utilisez PolyBase pour charger des données dans un pool SQL
Implémentez Azure Synapse Link et interrogez les données répliquées
Créer des pipelines de données
Faire évoluer les ressources
Configurer la taille du lot
Créer des tests pour les pipelines de données
Intégrez des notebooks Jupyter ou Python dans un pipeline de données
Insérer des données
Remettre les données à un état antérieur
Configurer la gestion des exceptions
Configurer la conservation des lots
Lire et écrire dans un lac delta
Développer une solution de traitement de flux
Créez une solution de traitement de flux à l'aide de Stream Analytics et Azure Event Hubs
Traiter les données à l'aide du streaming structuré Spark
Créer des agrégats fenêtrés
Gérer la dérive du schéma
Traiter les données de séries chronologiques
Traiter les données sur plusieurs partitions
Traiter dans une partition
Configurer les points de contrôle et le filigrane pendant le traitement
Faire évoluer les ressources
Créer des tests pour les pipelines de données
Optimiser les pipelines à des fins analytiques ou transactionnelles
Gérer les interruptions
Configurer la gestion des exceptions
Insérer des données
Relire les données de flux archivées
Gérer les lots et les pipelines
Déclencher des lots
Gérer les chargements par lots ayant échoué
Valider les chargements par lots
Gérer les pipelines de données dans Azure Data Factory ou Azure Synapse Pipelines
Planifier des pipelines de données dans Data Factory ou Azure Synapse Pipelines
Implémenter le contrôle de version pour les artefacts de pipeline
Gérer les tâches Spark dans un pipeline
Sécurisez, surveillez et optimisez le stockage et le traitement des données (30 à 35 %)
Mettre en œuvre la sécurité des données
Implémenter le masquage des données
Chiffrer les données au repos et en mouvement
Implémenter la sécurité au niveau des lignes et des colonnes
Implémenter le contrôle d’accès en fonction du rôle Azure (RBAC)
Implémenter des listes de contrôle d'accès (ACL) de type POSIX pour Data Lake Storage Gen2
Mettre en œuvre une politique de conservation des données
Mettre en œuvre des points de terminaison sécurisés (privés et publics)
Implémenter des jetons de ressources dans Azure Databricks
Charger un DataFrame avec des informations sensibles
Écrivez des données cryptées dans des tables ou des fichiers Parquet
Gérer les informations sensibles
Surveiller le stockage et le traitement des données
Implémenter la journalisation utilisée par Azure Monitor
Configurer les services de surveillance
Surveiller le traitement du flux
Mesurer les performances du mouvement des données
Surveiller et mettre à jour les statistiques sur les données dans un système
Surveiller les performances du pipeline de données
Mesurer les performances des requêtes
Planifier et surveiller les tests de pipeline
Interpréter les métriques et les journaux Azure Monitor
Mettre en œuvre une stratégie d’alerte pipeline
Optimiser et dépanner le stockage et le traitement des données
Compacter les petits fichiers
Gérer les biais dans les données
Gérer le déversement de données
Optimiser la gestion des ressources
Ajustez les requêtes à l’aide d’indexeurs
Ajuster les requêtes à l'aide du cache
Dépanner une tâche Spark ayant échoué
Dépanner une exécution de pipeline ayant échoué, y compris les activités exécutées dans des services externes