DP-203 Deutsch 無料問題集「Microsoft Data Engineering on Microsoft Azure (DP-203 Deutsch Version)」
Sie verfügen über eine Tabelle in einem dedizierten SQL-Pool von Azure Synapse Analytics. Die Tabelle wurde mit der folgenden Transact-SQL-Anweisung erstellt.
Sie müssen die Tabelle ändern, um die folgenden Anforderungen zu erfüllen:
* Stellen Sie sicher, dass Benutzer den aktuellen Manager der Mitarbeiter identifizieren können.
* Unterstützen Sie die Erstellung einer Mitarbeiterberichtshierarchie für Ihr gesamtes Unternehmen.
* Bieten Sie eine schnelle Suche nach Managerattributen wie Name und Berufsbezeichnung.
Welche Spalte sollten Sie der Tabelle hinzufügen?
Sie müssen die Tabelle ändern, um die folgenden Anforderungen zu erfüllen:
* Stellen Sie sicher, dass Benutzer den aktuellen Manager der Mitarbeiter identifizieren können.
* Unterstützen Sie die Erstellung einer Mitarbeiterberichtshierarchie für Ihr gesamtes Unternehmen.
* Bieten Sie eine schnelle Suche nach Managerattributen wie Name und Berufsbezeichnung.
Welche Spalte sollten Sie der Tabelle hinzufügen?
正解:D
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie verfügen über ein Azure Data Lake Storage Gen2-Konto mit dem Namen „konto1“, das Protokolle speichert, wie in der folgenden Tabelle gezeigt.
Sie gehen nicht davon aus, dass während der Aufbewahrungsfristen auf die Protokolle zugegriffen wird.
Sie müssen eine Lösung für Konto1 empfehlen, die die folgenden Anforderungen erfüllt:
* Löscht die Protokolle automatisch am Ende jedes Aufbewahrungszeitraums
* Minimiert Lagerkosten
Was sollten Sie in die Empfehlung aufnehmen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie gehen nicht davon aus, dass während der Aufbewahrungsfristen auf die Protokolle zugegriffen wird.
Sie müssen eine Lösung für Konto1 empfehlen, die die folgenden Anforderungen erfüllt:
* Löscht die Protokolle automatisch am Ende jedes Aufbewahrungszeitraums
* Minimiert Lagerkosten
Was sollten Sie in die Empfehlung aufnehmen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:
Explanation:
Box 1: Store the infrastructure logs in the Cool access tier and the application logs in the Archive access tier For infrastructure logs: Cool tier - An online tier optimized for storing data that is infrequently accessed or modified. Data in the cool tier should be stored for a minimum of 30 days. The cool tier has lower storage costs and higher access costs compared to the hot tier.
For application logs: Archive tier - An offline tier optimized for storing data that is rarely accessed, and that has flexible latency requirements, on the order of hours. Data in the archive tier should be stored for a minimum of 180 days.
Box 2: Azure Blob storage lifecycle management rules
Blob storage lifecycle management offers a rule-based policy that you can use to transition your data to the desired access tier when your specified conditions are met. You can also use lifecycle management to expire data at the end of its life.
Reference:
https://docs.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview
Sie entwerfen eine Azure Stream Analytics-Lösung, die Instant Messaging-Daten von einem Azure Event Hub empfängt.
Sie müssen sicherstellen, dass die Ausgabe des Stream Analytics-Auftrags alle 15 Sekunden die Anzahl der Nachrichten pro Zeitzone zählt.
Wie sollten Sie die Stream Analytics-Abfrage abschließen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie müssen sicherstellen, dass die Ausgabe des Stream Analytics-Auftrags alle 15 Sekunden die Anzahl der Nachrichten pro Zeitzone zählt.
Wie sollten Sie die Stream Analytics-Abfrage abschließen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:
Explanation:
Box 1: timestamp by
Box 2: TUMBLINGWINDOW
Tumbling window functions are used to segment a data stream into distinct time segments and perform a function against them, such as the example below. The key differentiators of a Tumbling window are that they repeat, do not overlap, and an event cannot belong to more than one tumbling window.
Reference:
https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-window-functions
Sie entwerfen ein Sternschema für einen Datensatz, der Datensätze von Online-Bestellungen enthält. Jeder Datensatz enthält ein Bestelldatum, ein Fälligkeitsdatum der Bestellung und ein Versanddatum der Bestellung.
Sie müssen sicherstellen, dass das Design die schnellsten Abfragezeiten der Datensätze bietet, wenn Sie beliebige Datumsbereiche abfragen und nach Geschäftskalenderattributen aggregieren.
Welche zwei Aktionen sollten Sie durchführen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie müssen sicherstellen, dass das Design die schnellsten Abfragezeiten der Datensätze bietet, wenn Sie beliebige Datumsbereiche abfragen und nach Geschäftskalenderattributen aggregieren.
Welche zwei Aktionen sollten Sie durchführen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:C、E
解答を投票する
Sie verfügen über eine Azure Data Factory-Instanz mit dem Namen ADF1 und zwei Azure Synapse Analytics-Arbeitsbereiche mit den Namen WS1 und WS2.
ADF1 enthält die folgenden Pipelines:
* P1: Verwendet eine Kopieraktivität, um Daten aus einer nicht partitionierten Tabelle in einem dedizierten SQL-Pool von WS1 in ein Azure Data Lake Storage Gen2-Konto zu kopieren
* P2: Verwendet eine Kopieraktivität, um Daten aus durch Text getrennten Dateien in einem Azure Data Lake Storage Gen2-Konto in eine nicht partitionierte Tabelle in einem dedizierten SQL-Pool von WS2 zu kopieren. Sie müssen P1 und P2 konfigurieren, um Parallelität und Leistung zu maximieren.
Welche Datensatzeinstellungen sollten Sie für die Kopieraktivität jeder Pipeline konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
ADF1 enthält die folgenden Pipelines:
* P1: Verwendet eine Kopieraktivität, um Daten aus einer nicht partitionierten Tabelle in einem dedizierten SQL-Pool von WS1 in ein Azure Data Lake Storage Gen2-Konto zu kopieren
* P2: Verwendet eine Kopieraktivität, um Daten aus durch Text getrennten Dateien in einem Azure Data Lake Storage Gen2-Konto in eine nicht partitionierte Tabelle in einem dedizierten SQL-Pool von WS2 zu kopieren. Sie müssen P1 und P2 konfigurieren, um Parallelität und Leistung zu maximieren.
Welche Datensatzeinstellungen sollten Sie für die Kopieraktivität jeder Pipeline konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:
Explanation:
Box 1: Set the Copy method to PolyBase
While SQL pool supports many loading methods including non-Polybase options such as BCP and SQL BulkCopy API, the fastest and most scalable way to load data is through PolyBase. PolyBase is a technology that accesses external data stored in Azure Blob storage or Azure Data Lake Store via the T-SQL language.
Box 2: Set the Copy method to Bulk insert
Polybase not possible for text files. Have to use Bulk insert.
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql/load-data-overview
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die das gleiche Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über ein Azure Data Lake Storage-Konto, das eine Stagingzone enthält.
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und die transformierten Daten dann in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie verwenden einen Azure Data Factory-Zeitplantrigger, um eine Pipeline auszuführen, die einen Zuordnungsdatenfluss ausführt und die Daten dann in das Data Warehouse einfügt.
Erfüllt dies das Ziel?
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über ein Azure Data Lake Storage-Konto, das eine Stagingzone enthält.
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und die transformierten Daten dann in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie verwenden einen Azure Data Factory-Zeitplantrigger, um eine Pipeline auszuführen, die einen Zuordnungsdatenfluss ausführt und die Daten dann in das Data Warehouse einfügt.
Erfüllt dies das Ziel?
正解:B
解答を投票する
Sie verfügen über zwei Azure Data Factory-Instanzen mit den Namen ADFdev und ADFprod. ADFdev stellt eine Verbindung zu einem Azure DevOps Git-Repository her.
Sie veröffentlichen Änderungen aus dem Hauptzweig des Git-Repositorys in ADFdev.
Sie müssen die Artefakte von ADFdev in ADFprod bereitstellen.
Was sollten Sie zuerst tun?
Sie veröffentlichen Änderungen aus dem Hauptzweig des Git-Repositorys in ADFdev.
Sie müssen die Artefakte von ADFdev in ADFprod bereitstellen.
Was sollten Sie zuerst tun?
正解:A
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie müssen die Partitionen für die Produktverkaufstransaktionen entwerfen. Die Lösung muss die Anforderungen an den Verkaufstransaktionsdatensatz erfüllen.
Was sollten Sie in die Lösung einbeziehen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Was sollten Sie in die Lösung einbeziehen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:
Explanation:
Box 1: Sales date
Scenario: Contoso requirements for data integration include:
* Partition data that contains sales transaction records. Partitions must be designed to provide efficient loads by month. Boundary values must belong to the partition on the right.
Box 2: An Azure Synapse Analytics Dedicated SQL pool
Scenario: Contoso requirements for data integration include:
* Ensure that data storage costs and performance are predictable.
The size of a dedicated SQL pool (formerly SQL DW) is determined by Data Warehousing Units (DWU).
Dedicated SQL pool (formerly SQL DW) stores data in relational tables with columnar storage. This format significantly reduces the data storage costs, and improves query performance.
Synapse analytics dedicated sql pool
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse-overview-hat-is
Sie verfügen über zwei Azure SQL-Datenbanken mit den Namen DB1 und DB2.
DB1 enthält eine Tabelle mit dem Namen „Tabelle 1“. Tabelle 1 enthält eine Zeitstempelspalte mit dem Namen „LastModifiedOn“.
LastModifiedOn enthält den Zeitstempel der letzten Aktualisierung für jede einzelne Zeile.
DB2 enthält eine Tabelle namens Watermark. Watermark enthält eine einzelne Zeitstempelspalte mit dem Namen WatermarkValue.
Sie planen, eine Azure Data Factory-Pipeline zu erstellen, die inkrementell alle Zeilen in Tabelle 1 in Azure Blob Storage hochlädt, für die die Spalte „LastModifiedOn“ einen Zeitstempel enthält, der neuer ist als der aktuellste Wert der Spalte „WatermarkValue“ in „Watermark“.
Sie müssen ermitteln, welche Aktivitäten in die Pipeline aufgenommen werden sollen. Die Lösung muss folgende Anforderungen erfüllen:
* Minimieren Sie den Aufwand zum Erstellen der Pipeline.
* Stellen Sie sicher, dass die Anzahl der Datenintegrationseinheiten, die dem Upload-Vorgang zugewiesen sind, gesteuert werden kann.
Was sollten Sie identifizieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
DB1 enthält eine Tabelle mit dem Namen „Tabelle 1“. Tabelle 1 enthält eine Zeitstempelspalte mit dem Namen „LastModifiedOn“.
LastModifiedOn enthält den Zeitstempel der letzten Aktualisierung für jede einzelne Zeile.
DB2 enthält eine Tabelle namens Watermark. Watermark enthält eine einzelne Zeitstempelspalte mit dem Namen WatermarkValue.
Sie planen, eine Azure Data Factory-Pipeline zu erstellen, die inkrementell alle Zeilen in Tabelle 1 in Azure Blob Storage hochlädt, für die die Spalte „LastModifiedOn“ einen Zeitstempel enthält, der neuer ist als der aktuellste Wert der Spalte „WatermarkValue“ in „Watermark“.
Sie müssen ermitteln, welche Aktivitäten in die Pipeline aufgenommen werden sollen. Die Lösung muss folgende Anforderungen erfüllen:
* Minimieren Sie den Aufwand zum Erstellen der Pipeline.
* Stellen Sie sicher, dass die Anzahl der Datenintegrationseinheiten, die dem Upload-Vorgang zugewiesen sind, gesteuert werden kann.
Was sollten Sie identifizieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
正解:
Explanation:
Sie erstellen einen Azure Stream Analytics-Auftrag, um zu ermitteln, wie viel Zeit ein Benutzer mit der Interaktion mit einer Funktion auf einer Webseite verbringt.
Der Job empfängt Ereignisse basierend auf Benutzeraktionen auf der Webseite. Jede Datenzeile stellt ein Ereignis dar. Jedes Ereignis hat entweder den Typ „Start“ oder „Ende“.
Sie müssen die Dauer zwischen Start- und Endereignissen berechnen.
Wie sollten Sie die Abfrage abschließen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Der Job empfängt Ereignisse basierend auf Benutzeraktionen auf der Webseite. Jede Datenzeile stellt ein Ereignis dar. Jedes Ereignis hat entweder den Typ „Start“ oder „Ende“.
Sie müssen die Dauer zwischen Start- und Endereignissen berechnen.
Wie sollten Sie die Abfrage abschließen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:
Explanation:
Box 1: DATEDIFF
DATEDIFF function returns the count (as a signed integer value) of the specified datepart boundaries crossed between the specified startdate and enddate.
Syntax: DATEDIFF ( datepart , startdate, enddate )
Box 2: LAST
The LAST function can be used to retrieve the last event within a specific condition. In this example, the condition is an event of type Start, partitioning the search by PARTITION BY user and feature. This way, every user and feature is treated independently when searching for the Start event. LIMIT DURATION limits the search back in time to 1 hour between the End and Start events.
Example:
SELECT
[user],
feature,
DATEDIFF(
second,
LAST(Time) OVER (PARTITION BY [user], feature LIMIT DURATION(hour,
1) WHEN Event = 'start'),
Time) as duration
FROM input TIMESTAMP BY Time
WHERE
Event = 'end'
Reference:
https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-stream-analytics-query-patterns
Sie erstellen Dimensionen für ein Data Warehouse in einem dedizierten Azure Synapse Analytics-SQL-Pool.
Sie erstellen eine Tabelle mithilfe der in der folgenden Abbildung gezeigten Transact-SQL-Anweisung.
Verwenden Sie die Dropdown-Menüs, um die Antwortmöglichkeit auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie erstellen eine Tabelle mithilfe der in der folgenden Abbildung gezeigten Transact-SQL-Anweisung.
Verwenden Sie die Dropdown-Menüs, um die Antwortmöglichkeit auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:
Explanation:
Box 1: Type 2
A Type 2 SCD supports versioning of dimension members. Often the source system doesn't store versions, so the data warehouse load process detects and manages changes in a dimension table. In this case, the dimension table must use a surrogate key to provide a unique reference to a version of the dimension member.
It also includes columns that define the date range validity of the version (for example, StartDate and EndDate) and possibly a flag column (for example, IsCurrent) to easily filter by current dimension members.
Reference:
https://docs.microsoft.com/en-us/learn/modules/populate-slowly-changing-dimensions-azure-synapse- analytics-pipelines/3-choose-between-dimension-types
Sie planen, eine Echtzeitüberwachungs-App zu erstellen, die Benutzer benachrichtigt, wenn sich ein Gerät mehr als 200 Meter von einem bestimmten Standort entfernt.
Sie müssen einen Azure Stream Analytics-Auftrag entwerfen, um die Daten für die geplante App zu verarbeiten. Die Lösung muss die Menge des entwickelten Codes und die Anzahl der verwendeten Technologien minimieren.
Was sollten Sie in den Stream Analytics-Job einbeziehen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie müssen einen Azure Stream Analytics-Auftrag entwerfen, um die Daten für die geplante App zu verarbeiten. Die Lösung muss die Menge des entwickelten Codes und die Anzahl der verwendeten Technologien minimieren.
Was sollten Sie in den Stream Analytics-Job einbeziehen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:
Explanation:
Input type: Stream
You can process real-time IoT data streams with Azure Stream Analytics.
Function: Geospatial
With built-in geospatial functions, you can use Azure Stream Analytics to build applications for scenarios such as fleet management, ride sharing, connected cars, and asset tracking.
Note: In a real-world scenario, you could have hundreds of these sensors generating events as a stream.
Ideally, a gateway device would run code to push these events to Azure Event Hubs or Azure IoT Hubs.
Reference:
https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-get-started-with-azure-stream- analytics-to-process-data-from-iot-devices
https://docs.microsoft.com/en-us/azure/stream-analytics/geospatial-scenarios