Práctica para el exámen | MS Azure DP-203 Ingeniería de dato

Esté preparado para el examen de Microsoft Azure DP-203: Ingeniería de datos en Microsoft Azure

Práctica para el exámen | MS Azure DP-203 Ingeniería de dato
Práctica para el exámen | MS Azure DP-203 Ingeniería de dato

Práctica para el exámen | MS Azure DP-203 Ingeniería de dato free download

Esté preparado para el examen de Microsoft Azure DP-203: Ingeniería de datos en Microsoft Azure

Para establecer expectativas realistas, tenga en cuenta: Estas preguntas NO son preguntas oficiales que encontrará en el examen oficial. Estas preguntas cubren todo el material que se describe en las secciones de conocimiento a continuación. Muchas de las preguntas se basan en escenarios ficticios en los que se plantean preguntas.


Los requisitos de conocimientos oficiales para el examen se revisan de forma rutinaria para garantizar que el contenido tenga los requisitos más recientes incorporados en las preguntas de práctica. Las actualizaciones del contenido a menudo se realizan sin notificación previa y están sujetas a cambios en cualquier momento.

Muchas de las preguntas tienen tanto el término en inglés como la traducción al español porque varios de los términos y funciones en Microsoft están en inglés. De esta forma podrá reconocer los componentes que son utilizados en Microsoft.


Cada pregunta tiene una explicación detallada y enlaces a materiales de referencia para respaldar las respuestas que aseguran la precisión de las soluciones de los problemas.


Las preguntas se barajarán cada vez que repita las pruebas, por lo que deberá saber por qué una respuesta es correcta, no solo que la respuesta correcta fue el elemento "B" la última vez que pasó por la prueba.


NOTA: Este curso no debe ser su único material de estudio para prepararse para el examen oficial. Estas pruebas de práctica están destinadas a complementar el material de estudio del tema.


Si encuentra contenido que necesita atención, envíe un mensaje con una captura de pantalla del contenido que necesita atención y lo revisaremos de inmediato. Proporcionar la prueba y el número de pregunta no identifica las preguntas, ya que las preguntas rotan cada vez que se ejecutan. Los números de las preguntas son diferentes para todos.


Como candidato para este examen, debe tener experiencia en la materia de integración, transformación y consolidación de datos de varios sistemas de datos estructurados, no estructurados y de transmisión en un esquema adecuado para crear soluciones de análisis.


Como ingeniero de datos de Azure, usted ayuda a las partes interesadas a comprender los datos a través de la exploración y a crear y mantener canalizaciones de procesamiento de datos seguras y compatibles mediante el uso de diferentes herramientas y técnicas. Utilice varios marcos y servicios de datos de Azure para almacenar y producir conjuntos de datos limpios y mejorados para su análisis. Este almacén de datos se puede diseñar con diferentes patrones de arquitectura según los requisitos comerciales, que incluyen:

  • Almacén de datos de gestión (MDW)

  • Grandes datos

  • Arquitectura de la casa del lago

Como ingeniero de datos de Azure, también ayuda a garantizar que la puesta en funcionamiento de las canalizaciones y almacenes de datos sea de alto rendimiento, eficiente, organizada y confiable, dado un conjunto de requisitos y limitaciones comerciales. Ayuda a identificar y solucionar problemas operativos y de calidad de datos. También diseña, implementa, monitorea y optimiza plataformas de datos para cumplir con los canales de datos.

Como candidato a este examen, deberá tener sólidos conocimientos de lenguajes de procesamiento de datos, que incluyen:

  • SQL

  • Pitón

  • escala

Debe comprender los patrones de arquitectura de datos y procesamiento paralelo. Debe dominar el uso de lo siguiente para crear soluciones de procesamiento de datos:

  • Fábrica de datos de Azure

  • Análisis de sinapsis de Azure

  • Análisis de flujo de Azure

  • Centros de eventos de Azure

  • Almacenamiento de lago de datos de Azure

  • Ladrillos de datos de Azure

Habilidades de un vistazo

  • Diseñar e implementar almacenamiento de datos (15-20%)

  • Desarrollar el procesamiento de datos (40–45%)

  • Proteger, monitorear y optimizar el almacenamiento y el procesamiento de datos (30–35 %)

Diseñar e implementar almacenamiento de datos (15-20%)

Implementar una estrategia de partición

  • Implementar una estrategia de partición para archivos.

  • Implementar una estrategia de partición para cargas de trabajo analíticas

  • Implementar una estrategia de partición para cargas de trabajo de streaming

  • Implementar una estrategia de partición para Azure Synapse Analytics

  • Identifique cuándo es necesaria la partición en Azure Data Lake Storage Gen2

Diseñar e implementar la capa de exploración de datos.

  • Cree y ejecute consultas utilizando una solución informática que aprovecha SQL sin servidor y el clúster Spark.

  • Recomendar e implementar plantillas de base de datos de Azure Synapse Analytics

  • Enviar linaje de datos nuevo o actualizado a Microsoft Purview

  • Explorar y buscar metadatos en Microsoft Purview Data Catalog

Desarrollar el procesamiento de datos (40–45%)

Ingerir y transformar datos

  • Diseñar e implementar cargas incrementales.

  • Transforme datos utilizando Apache Spark

  • Transforme datos mediante Transact-SQL (T-SQL) en Azure Synapse Analytics

  • Ingerir y transformar datos mediante Azure Synapse Pipelines o Azure Data Factory

  • Transforme datos mediante Azure Stream Analytics

  • Limpiar datos

  • Manejar datos duplicados

  • Evitar datos duplicados mediante el uso de Azure Stream Analytics Entrega exactamente una vez

  • Manejar datos faltantes

  • Manejar datos que llegan tarde

  • Dividir datos

  • Triturar JSON

  • Codificar y decodificar datos

  • Configurar el manejo de errores para una transformación

  • Normalizar y desnormalizar datos

  • Realizar análisis exploratorio de datos.

Desarrollar una solución de procesamiento por lotes

  • Desarrolle soluciones de procesamiento por lotes mediante Azure Data Lake Storage, Azure Databricks, Azure Synapse Analytics y Azure Data Factory.

  • Utilice PolyBase para cargar datos en un grupo de SQL

  • Implemente Azure Synapse Link y consulte los datos replicados

  • Crear canalizaciones de datos

  • Escalar recursos

  • Configurar el tamaño del lote

  • Crear pruebas para canalizaciones de datos

  • Integre cuadernos de Jupyter o Python en una canalización de datos

  • Actualizar datos

  • Revertir datos a un estado anterior

  • Configurar el manejo de excepciones

  • Configurar la retención de lotes

  • Leer y escribir en un lago del delta

Desarrollar una solución de procesamiento de flujo

  • Cree una solución de procesamiento de transmisiones mediante Stream Analytics y Azure Event Hubs

  • Procesar datos mediante streaming estructurado Spark

  • Crear agregados en ventana

  • Manejar la deriva del esquema

  • Procesar datos de series de tiempo

  • Procesar datos entre particiones

  • Proceso dentro de una partición

  • Configurar puntos de control y marcas de agua durante el procesamiento

  • Escalar recursos

  • Crear pruebas para canalizaciones de datos

  • Optimice las canalizaciones para fines analíticos o transaccionales.

  • Manejar las interrupciones

  • Configurar el manejo de excepciones

  • Actualizar datos

  • Reproducir datos de transmisión archivados

Gestionar lotes y canalizaciones

  • Activar lotes

  • Manejar cargas por lotes fallidas

  • Validar cargas por lotes

  • Administrar canalizaciones de datos en Azure Data Factory o Azure Synapse Pipelines

  • Programar canalizaciones de datos en Data Factory o Azure Synapse Pipelines

  • Implementar control de versiones para artefactos de canalización

  • Administrar trabajos de Spark en una canalización

Proteger, monitorear y optimizar el almacenamiento y el procesamiento de datos (30–35 %)

Implementar seguridad de datos

  • Implementar enmascaramiento de datos

  • Cifrar datos en reposo y en movimiento

  • Implementar seguridad a nivel de fila y columna

  • Implementar el control de acceso basado en roles (RBAC) de Azure

  • Implemente listas de control de acceso (ACL) similares a POSIX para Data Lake Storage Gen2

  • Implementar una política de retención de datos

  • Implementar puntos finales seguros (privados y públicos)

  • Implementar tokens de recursos en Azure Databricks

  • Cargar un DataFrame con información confidencial

  • Escriba datos cifrados en tablas o archivos Parquet

  • Gestionar información sensible

Supervisar el almacenamiento y el procesamiento de datos.

  • Implementar el registro utilizado por Azure Monitor

  • Configurar servicios de monitoreo

  • Monitorear el procesamiento de flujo

  • Medir el rendimiento del movimiento de datos

  • Supervisar y actualizar estadísticas sobre datos en un sistema

  • Supervisar el rendimiento de la canalización de datos

  • Medir el rendimiento de las consultas

  • Programar y monitorear pruebas de tuberías

  • Interpretar métricas y registros de Azure Monitor

  • Implementar una estrategia de alerta de canalización

Optimice y solucione problemas de almacenamiento y procesamiento de datos.

  • Archivos pequeños compactos

  • Manejar la asimetría en los datos

  • Manejar la fuga de datos

  • Optimizar la gestión de recursos

  • Ajustar consultas mediante indexadores

  • Ajustar consultas mediante el uso de caché

  • Solucionar problemas de un trabajo Spark fallido

  • Solucionar problemas de una ejecución fallida de una canalización, incluidas las actividades ejecutadas en servicios externos