Práctica para el exámen | MS Azure DP-203 Ingeniería de dato
Esté preparado para el examen de Microsoft Azure DP-203: Ingeniería de datos en Microsoft Azure

Práctica para el exámen | MS Azure DP-203 Ingeniería de dato free download
Esté preparado para el examen de Microsoft Azure DP-203: Ingeniería de datos en Microsoft Azure
Para establecer expectativas realistas, tenga en cuenta: Estas preguntas NO son preguntas oficiales que encontrará en el examen oficial. Estas preguntas cubren todo el material que se describe en las secciones de conocimiento a continuación. Muchas de las preguntas se basan en escenarios ficticios en los que se plantean preguntas.
Los requisitos de conocimientos oficiales para el examen se revisan de forma rutinaria para garantizar que el contenido tenga los requisitos más recientes incorporados en las preguntas de práctica. Las actualizaciones del contenido a menudo se realizan sin notificación previa y están sujetas a cambios en cualquier momento.
Muchas de las preguntas tienen tanto el término en inglés como la traducción al español porque varios de los términos y funciones en Microsoft están en inglés. De esta forma podrá reconocer los componentes que son utilizados en Microsoft.
Cada pregunta tiene una explicación detallada y enlaces a materiales de referencia para respaldar las respuestas que aseguran la precisión de las soluciones de los problemas.
Las preguntas se barajarán cada vez que repita las pruebas, por lo que deberá saber por qué una respuesta es correcta, no solo que la respuesta correcta fue el elemento "B" la última vez que pasó por la prueba.
NOTA: Este curso no debe ser su único material de estudio para prepararse para el examen oficial. Estas pruebas de práctica están destinadas a complementar el material de estudio del tema.
Si encuentra contenido que necesita atención, envíe un mensaje con una captura de pantalla del contenido que necesita atención y lo revisaremos de inmediato. Proporcionar la prueba y el número de pregunta no identifica las preguntas, ya que las preguntas rotan cada vez que se ejecutan. Los números de las preguntas son diferentes para todos.
Como candidato para este examen, debe tener experiencia en la materia de integración, transformación y consolidación de datos de varios sistemas de datos estructurados, no estructurados y de transmisión en un esquema adecuado para crear soluciones de análisis.
Como ingeniero de datos de Azure, usted ayuda a las partes interesadas a comprender los datos a través de la exploración y a crear y mantener canalizaciones de procesamiento de datos seguras y compatibles mediante el uso de diferentes herramientas y técnicas. Utilice varios marcos y servicios de datos de Azure para almacenar y producir conjuntos de datos limpios y mejorados para su análisis. Este almacén de datos se puede diseñar con diferentes patrones de arquitectura según los requisitos comerciales, que incluyen:
Almacén de datos de gestión (MDW)
Grandes datos
Arquitectura de la casa del lago
Como ingeniero de datos de Azure, también ayuda a garantizar que la puesta en funcionamiento de las canalizaciones y almacenes de datos sea de alto rendimiento, eficiente, organizada y confiable, dado un conjunto de requisitos y limitaciones comerciales. Ayuda a identificar y solucionar problemas operativos y de calidad de datos. También diseña, implementa, monitorea y optimiza plataformas de datos para cumplir con los canales de datos.
Como candidato a este examen, deberá tener sólidos conocimientos de lenguajes de procesamiento de datos, que incluyen:
SQL
Pitón
escala
Debe comprender los patrones de arquitectura de datos y procesamiento paralelo. Debe dominar el uso de lo siguiente para crear soluciones de procesamiento de datos:
Fábrica de datos de Azure
Análisis de sinapsis de Azure
Análisis de flujo de Azure
Centros de eventos de Azure
Almacenamiento de lago de datos de Azure
Ladrillos de datos de Azure
Habilidades de un vistazo
Diseñar e implementar almacenamiento de datos (15-20%)
Desarrollar el procesamiento de datos (40–45%)
Proteger, monitorear y optimizar el almacenamiento y el procesamiento de datos (30–35 %)
Diseñar e implementar almacenamiento de datos (15-20%)
Implementar una estrategia de partición
Implementar una estrategia de partición para archivos.
Implementar una estrategia de partición para cargas de trabajo analíticas
Implementar una estrategia de partición para cargas de trabajo de streaming
Implementar una estrategia de partición para Azure Synapse Analytics
Identifique cuándo es necesaria la partición en Azure Data Lake Storage Gen2
Diseñar e implementar la capa de exploración de datos.
Cree y ejecute consultas utilizando una solución informática que aprovecha SQL sin servidor y el clúster Spark.
Recomendar e implementar plantillas de base de datos de Azure Synapse Analytics
Enviar linaje de datos nuevo o actualizado a Microsoft Purview
Explorar y buscar metadatos en Microsoft Purview Data Catalog
Desarrollar el procesamiento de datos (40–45%)
Ingerir y transformar datos
Diseñar e implementar cargas incrementales.
Transforme datos utilizando Apache Spark
Transforme datos mediante Transact-SQL (T-SQL) en Azure Synapse Analytics
Ingerir y transformar datos mediante Azure Synapse Pipelines o Azure Data Factory
Transforme datos mediante Azure Stream Analytics
Limpiar datos
Manejar datos duplicados
Evitar datos duplicados mediante el uso de Azure Stream Analytics Entrega exactamente una vez
Manejar datos faltantes
Manejar datos que llegan tarde
Dividir datos
Triturar JSON
Codificar y decodificar datos
Configurar el manejo de errores para una transformación
Normalizar y desnormalizar datos
Realizar análisis exploratorio de datos.
Desarrollar una solución de procesamiento por lotes
Desarrolle soluciones de procesamiento por lotes mediante Azure Data Lake Storage, Azure Databricks, Azure Synapse Analytics y Azure Data Factory.
Utilice PolyBase para cargar datos en un grupo de SQL
Implemente Azure Synapse Link y consulte los datos replicados
Crear canalizaciones de datos
Escalar recursos
Configurar el tamaño del lote
Crear pruebas para canalizaciones de datos
Integre cuadernos de Jupyter o Python en una canalización de datos
Actualizar datos
Revertir datos a un estado anterior
Configurar el manejo de excepciones
Configurar la retención de lotes
Leer y escribir en un lago del delta
Desarrollar una solución de procesamiento de flujo
Cree una solución de procesamiento de transmisiones mediante Stream Analytics y Azure Event Hubs
Procesar datos mediante streaming estructurado Spark
Crear agregados en ventana
Manejar la deriva del esquema
Procesar datos de series de tiempo
Procesar datos entre particiones
Proceso dentro de una partición
Configurar puntos de control y marcas de agua durante el procesamiento
Escalar recursos
Crear pruebas para canalizaciones de datos
Optimice las canalizaciones para fines analíticos o transaccionales.
Manejar las interrupciones
Configurar el manejo de excepciones
Actualizar datos
Reproducir datos de transmisión archivados
Gestionar lotes y canalizaciones
Activar lotes
Manejar cargas por lotes fallidas
Validar cargas por lotes
Administrar canalizaciones de datos en Azure Data Factory o Azure Synapse Pipelines
Programar canalizaciones de datos en Data Factory o Azure Synapse Pipelines
Implementar control de versiones para artefactos de canalización
Administrar trabajos de Spark en una canalización
Proteger, monitorear y optimizar el almacenamiento y el procesamiento de datos (30–35 %)
Implementar seguridad de datos
Implementar enmascaramiento de datos
Cifrar datos en reposo y en movimiento
Implementar seguridad a nivel de fila y columna
Implementar el control de acceso basado en roles (RBAC) de Azure
Implemente listas de control de acceso (ACL) similares a POSIX para Data Lake Storage Gen2
Implementar una política de retención de datos
Implementar puntos finales seguros (privados y públicos)
Implementar tokens de recursos en Azure Databricks
Cargar un DataFrame con información confidencial
Escriba datos cifrados en tablas o archivos Parquet
Gestionar información sensible
Supervisar el almacenamiento y el procesamiento de datos.
Implementar el registro utilizado por Azure Monitor
Configurar servicios de monitoreo
Monitorear el procesamiento de flujo
Medir el rendimiento del movimiento de datos
Supervisar y actualizar estadísticas sobre datos en un sistema
Supervisar el rendimiento de la canalización de datos
Medir el rendimiento de las consultas
Programar y monitorear pruebas de tuberías
Interpretar métricas y registros de Azure Monitor
Implementar una estrategia de alerta de canalización
Optimice y solucione problemas de almacenamiento y procesamiento de datos.
Archivos pequeños compactos
Manejar la asimetría en los datos
Manejar la fuga de datos
Optimizar la gestión de recursos
Ajustar consultas mediante indexadores
Ajustar consultas mediante el uso de caché
Solucionar problemas de un trabajo Spark fallido
Solucionar problemas de una ejecución fallida de una canalización, incluidas las actividades ejecutadas en servicios externos