DP-203日本語 無料問題集「Microsoft Data Engineering on Microsoft Azure (DP-203日本語版)」
Database1 という名前の Azure SQL データベースと、HubA と HubB という名前の 2 つの Azure イベント ハブがあります。各ソースから消費されるデータを次の表に示します。

ドライバーごとのマイルあたりの平均料金を計算するには、Azure Stream Analytics を実装する必要があります。
各ソースの Stream Analytics 入力をどのように構成する必要がありますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。


ドライバーごとのマイルあたりの平均料金を計算するには、Azure Stream Analytics を実装する必要があります。
各ソースの Stream Analytics 入力をどのように構成する必要がありますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。

正解:

Explanation:

HubA: Stream
HubB: Stream
Database1: Reference
Reference data (also known as a lookup table) is a finite data set that is static or slowly changing in nature, used to perform a lookup or to augment your data streams. For example, in an IoT scenario, you could store metadata about sensors (which don't change often) in reference data and join it with real time IoT data streams. Azure Stream Analytics loads reference data in memory to achieve low latency stream processing Reference:
https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-use-reference-data
Azure Synapse Analytics 専用の SQL プールがあります。
ディメンション モデルの大きなファクト テーブルとなる FactInternetSales という名前のテーブルを作成する必要があります。FactInternetSales には、1 億行と、SalesAmount および OrderQuantity という名前の 2 つの列が含まれます。FactInternetSales で実行されるクエリは、特定の製品の昨年の SalesAmount と OrderQuantity の値を集計します。ソリューションでは、データ サイズとクエリの実行時間を最小限に抑える必要があります。
コードをどのように完成させる必要がありますか? 回答するには、回答エリアで適切なオプションを選択します。
注: それぞれの正しい選択は 1 ポイントの価値があります。

ディメンション モデルの大きなファクト テーブルとなる FactInternetSales という名前のテーブルを作成する必要があります。FactInternetSales には、1 億行と、SalesAmount および OrderQuantity という名前の 2 つの列が含まれます。FactInternetSales で実行されるクエリは、特定の製品の昨年の SalesAmount と OrderQuantity の値を集計します。ソリューションでは、データ サイズとクエリの実行時間を最小限に抑える必要があります。
コードをどのように完成させる必要がありますか? 回答するには、回答エリアで適切なオプションを選択します。
注: それぞれの正しい選択は 1 ポイントの価値があります。

正解:

Explanation:
Box 1: (CLUSTERED COLUMNSTORE INDEX
CLUSTERED COLUMNSTORE INDEX
Columnstore indexes are the standard for storing and querying large data warehousing fact tables. This index uses column-based data storage and query processing to achieve gains up to 10 times the query performance in your data warehouse over traditional row-oriented storage. You can also achieve gains up to 10 times the data compression over the uncompressed data size. Beginning with SQL Server 2016 (13.x) SP1, columnstore indexes enable operational analytics: the ability to run performant real-time analytics on a transactional workload.
Note: Clustered columnstore index
A clustered columnstore index is the physical storage for the entire table.

To reduce fragmentation of the column segments and improve performance, the columnstore index might store some data temporarily into a clustered index called a deltastore and a B-tree list of IDs for deleted rows.
The deltastore operations are handled behind the scenes. To return the correct query results, the clustered columnstore index combines query results from both the columnstore and the deltastore.
Box 2: HASH([ProductKey])
A hash distributed table distributes rows based on the value in the distribution column. A hash distributed table is designed to achieve high performance for queries on large tables.
Choose a distribution column with data that distributes evenly
Reference: https://docs.microsoft.com/en-us/sql/relational-databases/indexes/columnstore-indexes-overview
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse-tables- overview
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse-tables- distribute
ステージングゾーンを含むAzureData LakeStorageアカウントがあります。
ステージングゾーンから増分データを取り込み、Rスクリプトを実行してデータを変換し、変換されたデータをAzure SynapseAnalyticsのデータウェアハウスに挿入するための酪農プロセスを設計する必要があります。
解決策:Azure Data Factoryのスケジュールトリガーを使用して、データをデータウェアハウスのステージングテーブルにコピーするパイプラインを実行してから、ストアドプロシージャを使用してRスクリプトを実行します。
これは目標を達成していますか?
ステージングゾーンから増分データを取り込み、Rスクリプトを実行してデータを変換し、変換されたデータをAzure SynapseAnalyticsのデータウェアハウスに挿入するための酪農プロセスを設計する必要があります。
解決策:Azure Data Factoryのスケジュールトリガーを使用して、データをデータウェアハウスのステージングテーブルにコピーするパイプラインを実行してから、ストアドプロシージャを使用してRスクリプトを実行します。
これは目標を達成していますか?
正解:A
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
ステージングゾーンを含むAzureData LakeStorageアカウントがあります。
ステージングゾーンから増分データを取り込み、Rスクリプトを実行してデータを変換し、変換されたデータをAzure SynapseAnalyticsのデータウェアハウスに挿入する毎日のプロセスを設計する必要があります。
解決策:Rノートブックを実行するAzure Databricksジョブをスケジュールしてから、データウェアハウスにデータを挿入します。
これは目標を達成していますか?
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
ステージングゾーンを含むAzureData LakeStorageアカウントがあります。
ステージングゾーンから増分データを取り込み、Rスクリプトを実行してデータを変換し、変換されたデータをAzure SynapseAnalyticsのデータウェアハウスに挿入する毎日のプロセスを設計する必要があります。
解決策:Rノートブックを実行するAzure Databricksジョブをスケジュールしてから、データウェアハウスにデータを挿入します。
これは目標を達成していますか?
正解:B
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
ユーザーがAzureSynapseAnalyticsサーバーレスSQLプールからAzureData Lake StorageGen2アカウントの特定のファイルをクエリできるようにするソリューションを構築する必要があります。
順番に実行する必要がある3つのアクションはどれですか?回答するには、適切なアクションをアクションのリストから回答領域に移動し、正しい順序に並べます。
注:回答の選択肢の複数の順序が正しいです。選択した正しい注文のいずれかに対してクレジットを受け取ります。

順番に実行する必要がある3つのアクションはどれですか?回答するには、適切なアクションをアクションのリストから回答領域に移動し、正しい順序に並べます。
注:回答の選択肢の複数の順序が正しいです。選択した正しい注文のいずれかに対してクレジットを受け取ります。

正解:

Explanation:

Step 1: Create an external data source
You can create external tables in Synapse SQL pools via the following steps:
CREATE EXTERNAL DATA SOURCE to reference an external Azure storage and specify the credential that should be used to access the storage.
CREATE EXTERNAL FILE FORMAT to describe format of CSV or Parquet files.
CREATE EXTERNAL TABLE on top of the files placed on the data source with the same file format.
Step 2: Create an external file format object
Creating an external file format is a prerequisite for creating an external table.
Step 3: Create an external table
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql/develop-tables-external-tables
次の展示に示すアクティビティを持つAzureDataFactoryパイプラインがあります。

ドロップダウンメニューを使用して、図に示されている情報に基づいて各ステートメントを完了する回答の選択肢を選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。


ドロップダウンメニューを使用して、図に示されている情報に基づいて各ステートメントを完了する回答の選択肢を選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。

正解:

Explanation:
Box 1: succeed
Box 2: failed
Example:
Now let's say we have a pipeline with 3 activities, where Activity1 has a success path to Activity2 and a failure path to Activity3. If Activity1 fails and Activity3 succeeds, the pipeline will fail. The presence of the success path alongside the failure path changes the outcome reported by the pipeline, even though the activity executions from the pipeline are the same as the previous scenario.

Activity1 fails, Activity2 is skipped, and Activity3 succeeds. The pipeline reports failure.
Reference:
https://datasavvy.me/2021/02/18/azure-data-factory-activity-failures-and-pipeline-outcomes/
Microsoft Visual Studio の Stream Analytics プロジェクト ソリューションである Azure Stream Analytics ジョブがあります。ジョブは、JSON 形式で IoT デバイスによって生成されたデータを受け入れます。
IoT デバイスによって生成されたデータを Protobuf 形式で受け入れるようにジョブを変更する必要があります。
Visual Studio から順番に実行する必要がある 3 つのアクションはどれですか?回答するには、アクションのリストから適切なアクションを回答エリアに移動し、正しい順序で並べてください。

IoT デバイスによって生成されたデータを Protobuf 形式で受け入れるようにジョブを変更する必要があります。
Visual Studio から順番に実行する必要がある 3 つのアクションはどれですか?回答するには、アクションのリストから適切なアクションを回答エリアに移動し、正しい順序で並べてください。

正解:

Explanation:

Step 1: Add an Azure Stream Analytics Custom Deserializer Project (.NET) project to the solution.
Create a custom deserializer
1. Open Visual Studio and select File > New > Project. Search for Stream Analytics and select Azure Stream Analytics Custom Deserializer Project (.NET). Give the project a name, like Protobuf Deserializer.

2. In Solution Explorer, right-click your Protobuf Deserializer project and select Manage NuGet Packages from the menu. Then install the Microsoft.Azure.StreamAnalytics and Google.Protobuf NuGet packages.
3. Add the MessageBodyProto class and the MessageBodyDeserializer class to your project.
4. Build the Protobuf Deserializer project.
Step 2: Add .NET deserializer code for Protobuf to the custom deserializer project Azure Stream Analytics has built-in support for three data formats: JSON, CSV, and Avro. With custom .NET deserializers, you can read data from other formats such as Protocol Buffer, Bond and other user defined formats for both cloud and edge jobs.
Step 3: Add an Azure Stream Analytics Application project to the solution Add an Azure Stream Analytics project In Solution Explorer, right-click the Protobuf Deserializer solution and select Add > New Project. Under Azure Stream Analytics > Stream Analytics, choose Azure Stream Analytics Application. Name it ProtobufCloudDeserializer and select OK.
Right-click References under the ProtobufCloudDeserializer Azure Stream Analytics project. Under Projects, add Protobuf Deserializer. It should be automatically populated for you.
Reference:
https://docs.microsoft.com/en-us/azure/stream-analytics/custom-deserializer
Table1 という名前のテーブルを含む Azure Synapse Analytics 専用の SQL プールがあります。
取り込まれ、container1 という名前の Azure Data Lake Storage Gen2 コンテナーに読み込まれるファイルがあります。
ファイルからのデータを Table1 とコンテナー 1 という名前の azure Data Lake Storage Gen2 コンテナーに挿入する予定です。
ファイルのデータを Table1 に挿入し、データを変換する予定です。ファイル内のデータの各行は、Table1 のサービス レイヤーに 1 行を生成します。
ソース データ ファイルが container1 にロードされるときに、DateTime が Table1 の追加の列として保存されることを確認する必要があります。
解決策: Azure Synapse Analytics パイプラインでは、ファイルの DateTime を取得する Get Metadata アクティビティを使用します。
これは目標を達成していますか?
取り込まれ、container1 という名前の Azure Data Lake Storage Gen2 コンテナーに読み込まれるファイルがあります。
ファイルからのデータを Table1 とコンテナー 1 という名前の azure Data Lake Storage Gen2 コンテナーに挿入する予定です。
ファイルのデータを Table1 に挿入し、データを変換する予定です。ファイル内のデータの各行は、Table1 のサービス レイヤーに 1 行を生成します。
ソース データ ファイルが container1 にロードされるときに、DateTime が Table1 の追加の列として保存されることを確認する必要があります。
解決策: Azure Synapse Analytics パイプラインでは、ファイルの DateTime を取得する Get Metadata アクティビティを使用します。
これは目標を達成していますか?
正解:A
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
製品販売トランザクションのパーティションを設計する必要があります。ソリューションは、販売トランザクションデータセットの要件を満たす必要があります。
ソリューションに何を含める必要がありますか?回答するには、回答領域で適切なオプションを選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。

ソリューションに何を含める必要がありますか?回答するには、回答領域で適切なオプションを選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。

正解:

Explanation:

Box 1: Sales date
Scenario: Contoso requirements for data integration include:
Partition data that contains sales transaction records. Partitions must be designed to provide efficient loads by month. Boundary values must belong to the partition on the right.
Box 2: An Azure Synapse Analytics Dedicated SQL pool
Scenario: Contoso requirements for data integration include:
Ensure that data storage costs and performance are predictable.
The size of a dedicated SQL pool (formerly SQL DW) is determined by Data Warehousing Units (DWU).
Dedicated SQL pool (formerly SQL DW) stores data in relational tables with columnar storage. This format significantly reduces the data storage costs, and improves query performance.
Synapse analytics dedicated sql pool
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse-overview- what-is
あなたは、企業向けのデータ エンジニアリング ソリューションを開発しています。
プロジェクトでは、データを Azure Data Lake Storage にデプロイする必要があります。
プロジェクト メンバーが Azure Data Lake Storage リソースを管理できるように、ロールベースのアクセス制御 (RBAC) を実装する必要があります。
どの3つのアクションを実行する必要がありますか?それぞれの正解は、ソリューションの一部を示しています。
注: 正しい選択ごとに 1 ポイントの価値があります。
プロジェクトでは、データを Azure Data Lake Storage にデプロイする必要があります。
プロジェクト メンバーが Azure Data Lake Storage リソースを管理できるように、ロールベースのアクセス制御 (RBAC) を実装する必要があります。
どの3つのアクションを実行する必要がありますか?それぞれの正解は、ソリューションの一部を示しています。
注: 正しい選択ごとに 1 ポイントの価値があります。
正解:A、B、C
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)