DP-203 Deutsch 無料問題集「Microsoft Data Engineering on Microsoft Azure (DP-203 Deutsch Version)」
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool namens Pool1 und eine Datenbank namens DB1. DB1 enthält eine Faktentabelle mit dem Namen Table1.
Sie müssen das Ausmaß der Datenabweichung in Tabelle 1 ermitteln.
Was sollten Sie in Synapse Studio tun?
Sie müssen das Ausmaß der Datenabweichung in Tabelle 1 ermitteln.
Was sollten Sie in Synapse Studio tun?
正解:D
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool, der eine Datenbank namens DB1 hostet. Sie müssen sicherstellen, dass D81 die folgenden Sicherheitsanforderungen erfüllt:
* Wenn in Anträgen Kreditkartennummern angezeigt werden, dürfen nur die letzten vier Ziffern sichtbar sein.
* Steuernummern dürfen nur für bestimmte Benutzer sichtbar sein.
Was sollten Sie für jede Anforderung verwenden? Um zu antworten, wählen Sie die entsprechenden Optionen im Antwortbereich aus. HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

* Wenn in Anträgen Kreditkartennummern angezeigt werden, dürfen nur die letzten vier Ziffern sichtbar sein.
* Steuernummern dürfen nur für bestimmte Benutzer sichtbar sein.
Was sollten Sie für jede Anforderung verwenden? Um zu antworten, wählen Sie die entsprechenden Optionen im Antwortbereich aus. HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:

Sie verwalten ein Enterprise Data Warehouse in Azure Synapse Analytics.
Benutzer melden eine langsame Leistung beim Ausführen häufig verwendeter Abfragen. Benutzer melden keine Leistungsänderungen bei selten verwendeten Abfragen.
Sie müssen die Ressourcennutzung überwachen, um die Ursache der Leistungsprobleme zu ermitteln.
Welche Metrik sollten Sie überwachen?
Benutzer melden eine langsame Leistung beim Ausführen häufig verwendeter Abfragen. Benutzer melden keine Leistungsänderungen bei selten verwendeten Abfragen.
Sie müssen die Ressourcennutzung überwachen, um die Ursache der Leistungsprobleme zu ermitteln.
Welche Metrik sollten Sie überwachen?
正解:A
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie verfügen über ein Azure-Abonnement, das eine Azure SQL-Datenbank namens SQLDB1 und einen dedizierten Azure Synapse Analytics-SQL-Pool namens Pool1 enthält.
Sie müssen Daten von SQLDB1 nach Pool1 replizieren. Die Lösung muss die folgenden Anforderungen erfüllen:
* Minimieren Sie die Leistungseinbußen bei SQLDB1.
* Unterstützt nahezu Echtzeitanalysen (NRT).
* Minimieren Sie den Verwaltungsaufwand.
Was sollten Sie verwenden?
Sie müssen Daten von SQLDB1 nach Pool1 replizieren. Die Lösung muss die folgenden Anforderungen erfüllen:
* Minimieren Sie die Leistungseinbußen bei SQLDB1.
* Unterstützt nahezu Echtzeitanalysen (NRT).
* Minimieren Sie den Verwaltungsaufwand.
Was sollten Sie verwenden?
正解:A
解答を投票する
Sie haben ein Azure-Abonnement.
Sie planen, ein Data Warehouse in einem dedizierten Azure Synapse Analytics-SQL-Pool namens pool1 zu erstellen, der Stagingtabellen enthält, und ein Dimensionsmodell. Pool1 enthält die folgenden Tabellen.


Sie planen, ein Data Warehouse in einem dedizierten Azure Synapse Analytics-SQL-Pool namens pool1 zu erstellen, der Stagingtabellen enthält, und ein Dimensionsmodell. Pool1 enthält die folgenden Tabellen.


正解:

Explanation:

Sie entwerfen eine Anwendung, die ein Azure Data Lake Storage Gen 2-Konto verwendet, um Petabytes an Nummernschildfotos von Mautstellen zu speichern. Das Konto verwendet zonenredundanten Speicher (ZRS).
Sie erkennen folgende Nutzungsmuster:
* Der Datenabruf erfolgt in den ersten 30 Tagen nach Erstellung der Daten mehrmals täglich. Die Daten müssen eine Verfügbarkeits-SU von 99,9 % erfüllen.
* Nach 90 Tagen wird seltener auf die Daten zugegriffen, sie müssen jedoch innerhalb von 30 Sekunden verfügbar sein.
* Nach 365 Tagen wird seltener auf die Daten zugegriffen, sie müssen jedoch innerhalb von fünf Minuten verfügbar sein.

Sie erkennen folgende Nutzungsmuster:
* Der Datenabruf erfolgt in den ersten 30 Tagen nach Erstellung der Daten mehrmals täglich. Die Daten müssen eine Verfügbarkeits-SU von 99,9 % erfüllen.
* Nach 90 Tagen wird seltener auf die Daten zugegriffen, sie müssen jedoch innerhalb von 30 Sekunden verfügbar sein.
* Nach 365 Tagen wird seltener auf die Daten zugegriffen, sie müssen jedoch innerhalb von fünf Minuten verfügbar sein.

正解:

Explanation:
Box 1: Hot
The data will be accessed several times a day during the first 30 days after the data is created. The data must meet an availability SLA of 99.9%.
Box 2: Cool
After 90 days, the data will be accessed infrequently but must be available within 30 seconds.
Data in the Cool tier should be stored for a minimum of 30 days.
When your data is stored in an online access tier (either Hot or Cool), users can access it immediately. The Hot tier is the best choice for data that is in active use, while the Cool tier is ideal for data that is accessed less frequently, but that still must be available for reading and writing.
Box 3: Cool
After 365 days, the data will be accessed infrequently but must be available within five minutes.
Reference: https://docs.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview
https://docs.microsoft.com/en-us/azure/storage/blobs/archive-rehydrate-overview
Sie müssen eine analytische Speicherlösung für die Transaktionsdaten entwerfen. Die Lösung muss die Anforderungen an den Verkaufstransaktionsdatensatz erfüllen.
Was sollten Sie in die Lösung einbeziehen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

Was sollten Sie in die Lösung einbeziehen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:

Box 1: Round-robin
Round-robin tables are useful for improving loading speed.
Scenario: Partition data that contains sales transaction records. Partitions must be designed to provide efficient loads by month.
Box 2: Hash
Hash-distributed tables improve query performance on large fact tables.
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse-tables-distribute
Sie verfügen über ein Azure-Abonnement, das einen dedizierten Azure Synapse Analytics-SQL-Pool mit dem Namen Pool1 enthält.
Pool1 empfängt alle 24 Stunden neue Daten.
Sie haben die folgende Funktion.

Sie haben die folgende Abfrage.

Die Abfrage wird alle 15 Minuten einmal ausgeführt und der @parameter-Wert wird auf das aktuelle Datum gesetzt.
Sie müssen die Zeit minimieren, die die Abfrage benötigt, um Ergebnisse zurückzugeben.
Welche zwei Aktionen sollten Sie durchführen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Pool1 empfängt alle 24 Stunden neue Daten.
Sie haben die folgende Funktion.

Sie haben die folgende Abfrage.

Die Abfrage wird alle 15 Minuten einmal ausgeführt und der @parameter-Wert wird auf das aktuelle Datum gesetzt.
Sie müssen die Zeit minimieren, die die Abfrage benötigt, um Ergebnisse zurückzugeben.
Welche zwei Aktionen sollten Sie durchführen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:B、C
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie überwachen einen Azure Stream Analytics-Auftrag mithilfe von Metriken in Azure.
Sie stellen fest, dass die durchschnittliche Wasserzeichenverzögerung in den letzten 12 Stunden durchweg größer als die konfigurierte Toleranz für verspätete Ankunft war.
Was ist eine mögliche Ursache für dieses Verhalten?
Sie stellen fest, dass die durchschnittliche Wasserzeichenverzögerung in den letzten 12 Stunden durchweg größer als die konfigurierte Toleranz für verspätete Ankunft war.
Was ist eine mögliche Ursache für dieses Verhalten?
正解:D
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie entwerfen eine Azure Stream Analytics-Lösung, die Twitter-Daten analysiert.
Sie müssen die Tweets in jedem 10-Sekunden-Fenster zählen. Die Lösung muss sicherstellen, dass jeder Tweet nur einmal gezählt wird.
Lösung: Sie verwenden ein Sitzungsfenster mit einer Timeout-Größe von 10 Sekunden.
Erfüllt dies das Ziel?
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie entwerfen eine Azure Stream Analytics-Lösung, die Twitter-Daten analysiert.
Sie müssen die Tweets in jedem 10-Sekunden-Fenster zählen. Die Lösung muss sicherstellen, dass jeder Tweet nur einmal gezählt wird.
Lösung: Sie verwenden ein Sitzungsfenster mit einer Timeout-Größe von 10 Sekunden.
Erfüllt dies das Ziel?
正解:B
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie entwerfen eine Azure Data Lake Storage-Lösung, die JSON-Rohdateien für die Verwendung in einer analytischen Arbeitslast umwandelt.
Sie müssen ein Format für die transformierten Dateien empfehlen. Die Lösung muss folgende Anforderungen erfüllen:
* Enthält Informationen zu den Datentypen jeder Spalte in den Dateien.
* Unterstützt das Abfragen einer Teilmenge von Spalten in den Dateien.
* Unterstützung leseintensiver Analyse-Workloads.
* Minimieren Sie die Dateigröße.
Was sollten Sie empfehlen?
Sie müssen ein Format für die transformierten Dateien empfehlen. Die Lösung muss folgende Anforderungen erfüllen:
* Enthält Informationen zu den Datentypen jeder Spalte in den Dateien.
* Unterstützt das Abfragen einer Teilmenge von Spalten in den Dateien.
* Unterstützung leseintensiver Analyse-Workloads.
* Minimieren Sie die Dateigröße.
Was sollten Sie empfehlen?
正解:C
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie müssen einen dedizierten Azure Synapse Analytics-SQL-Pool entwerfen, der die folgenden Anforderungen erfüllt:
* Kann einen Mitarbeiterdatensatz zu einem bestimmten Zeitpunkt zurückgeben.
* Behält die neuesten Mitarbeiterinformationen bei.
* Minimiert die Komplexität der Abfrage.
Wie sollten Sie die Mitarbeiterdaten modellieren?
* Kann einen Mitarbeiterdatensatz zu einem bestimmten Zeitpunkt zurückgeben.
* Behält die neuesten Mitarbeiterinformationen bei.
* Minimiert die Komplexität der Abfrage.
Wie sollten Sie die Mitarbeiterdaten modellieren?
正解:C
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie entwerfen ein Enterprise Data Warehouse in Azure Synapse Analytics, das eine Tabelle mit dem Namen „Customers“ enthält. Kunden enthalten Kreditkarteninformationen.
Sie müssen eine Lösung empfehlen, die Vertriebsmitarbeitern die Möglichkeit gibt, alle Einträge in „Kunden“ anzuzeigen.
Die Lösung muss verhindern, dass alle Verkäufer die Kreditkarteninformationen einsehen oder daraus ableiten können.
Was sollten Sie in die Empfehlung aufnehmen?
Sie müssen eine Lösung empfehlen, die Vertriebsmitarbeitern die Möglichkeit gibt, alle Einträge in „Kunden“ anzuzeigen.
Die Lösung muss verhindern, dass alle Verkäufer die Kreditkarteninformationen einsehen oder daraus ableiten können.
Was sollten Sie in die Empfehlung aufnehmen?
正解:A
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Welche Azure Data Factory-Komponenten sollten Sie zusammen verwenden, um die täglichen Inventardaten vom SQL Server in Azure Data Lake Storage zu importieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:

Box 1: Self-hosted integration runtime
A self-hosted IR is capable of running copy activity between a cloud data stores and a data store in private network.
Box 2: Schedule trigger
Schedule every 8 hours
Box 3: Copy activity
Scenario:
Customer data, including name, contact information, and loyalty number, comes from Salesforce and can be imported into Azure once every eight hours. Row modified dates are not trusted in the source table.
Product data, including product ID, name, and category, comes from Salesforce and can be imported into Azure once every eight hours. Row modified dates are not trusted in the source table.