DP-900 Korean 無料問題集「Microsoft Azure Data Fundamentals (DP-900 Korean Version)」

핫스팟 질문
문장을 올바르게 완성하는 답을 선택하세요.
正解:

Explanation:
A treemap chart divides the chart area into rectangles that represent the different levels and relative sizes of the data hierarchy.
Reference:
https://docs.microsoft.com/en-us/sql/reporting-services/report-design/tree-map-and-sunburst- charts-in-reporting-services?view=sql-server-ver15
다음 중 문서의 고유 식별자는 무엇이며, 데이터의 균등한 분포를 위해 해시되는 경우가 많으며 문서 데이터 저장소에서 문서의 데이터를 검색하는 데 도움이 됩니까?

解説: (JPNTest メンバーにのみ表示されます)
핫스팟 질문
다음 각 문장에 대해 문장이 사실이라면 예를 선택하세요. 그렇지 않으면 아니요를 선택하세요.
참고사항: 정답 하나당 1점입니다.
正解:

Explanation:
Box 1: Yes
You can reduce transfer sensitive data with transformations on data source.
Box 2: No
ELT use the compute resource from destination system.
Box 3: Yes
ELT minimizes time with transformations are going realizaded on target data destination systems.
https://docs.microsoft.com/en-us/azure/architecture/data-guide/relational-data/etl
다음 문장을 읽어보세요 - "관계형 데이터베이스에서 열의 모든 값은 동일한 데이터 유형을 갖습니다." 주어진 문장과 관련하여 올바른 옵션을 선택하세요.

解説: (JPNTest メンバーにのみ表示されます)
핫스팟 질문
문장을 완성하려면 답변란에서 적절한 옵션을 선택하세요.
正解:

Explanation:
Batch data can be run weekly, monthly, or even yearly.
핫스팟 질문
다음 각 문장에 대해 문장이 사실이라면 예를 선택하세요. 그렇지 않으면 아니요를 선택하세요.
참고사항: 정답 하나당 1점입니다.
正解:

Explanation:
Box 1: No
A pipeline is a logical grouping of activities that together perform a task.
Box 2: Yes
You can construct pipeline hierarchies with data factory.
Box 3: Yes
A pipeline is a logical grouping of activities that together perform a task.
Reference:
https://mrpaulandrew.com/2019/09/25/azure-data-factory-pipeline-hierarchies-generation-control/
핫스팟 질문
문장을 올바르게 완성하는 답을 선택하세요.
正解:
핫스팟 질문
다음 각 진술에 대해 진술이 사실이라면 '예'를 선택하고, 그렇지 않으면 '아니요'를 선택하세요.
참고사항: 정답 하나당 1점입니다.
正解:

Explanation:
Box 1: Yes
Azure Databricks can consume data from SQL Databases using JDBC and from SQL Databases using the Apache Spark connector.
The Apache Spark connector for Azure SQL Database and SQL Server enables these databases to act as input data sources and output data sinks for Apache Spark jobs.
Box 2: Yes
You can stream data into Azure Databricks using Event Hubs.
Box 3: Yes
You can run Spark jobs with data stored in Azure Cosmos DB using the Cosmos DB Spark connector. Cosmos can be used for batch and stream processing, and as a serving layer for low latency access.
You can use the connector with Azure Databricks or Azure HDInsight, which provide managed Spark clusters on Azure.
Reference:
https://docs.microsoft.com/en-us/azure/databricks/data/data-sources/sql-databases-azure
https://docs.microsoft.com/en-us/azure/databricks/scenarios/databricks-stream-from-eventhubs
핫스팟 질문
문장을 올바르게 완성하는 답을 선택하세요.
正解:
Azure Synapse Analytics에 전용 SQL 풀이 있는데, 매일 밤 8시간 동안만 활발하게 사용됩니다.
유휴 시간 동안 전용 SQL 풀의 비용을 최대한 최소화해야 합니다.
솔루션은 데이터가 손상되지 않도록 보장해야 합니다.
전용 SQL 풀에서 무엇을 해야 하나요?

解説: (JPNTest メンバーにのみ表示されます)
핫스팟 질문
다음 각 문장에 대해 문장이 사실이라면 예를 선택하세요. 그렇지 않으면 아니요를 선택하세요.
참고사항: 정답 하나당 1점입니다.
正解:

Explanation:
Box 1: No
Microsoft handles all patching and updating of the SQL and operating system code. You don't have to manage the underlying infrastructure.
Box 2: Yes
SQL Database is a fully managed service that has built-in high availability, backups, and other common maintenance operations.
Box 3: No
Reference:
https://docs.microsoft.com/en-us/azure/azure-sql/database/sql-database-paas-overview
드래그 앤 드롭 질문
Azure 서비스를 적절한 요구 사항에 맞춰 구성하세요.
대답하려면 왼쪽 열에서 해당 서비스를 오른쪽의 요구 사항으로 끌어다 놓으세요. 각 서비스는 한 번, 두 번 이상 또는 전혀 사용되지 않을 수 있습니다.
참고사항: 정답을 하나 맞히면 1점입니다.
正解:

Explanation:
Box 1: Azure Synapse Analytics
Output data to parquet format.
Box 2: Azure Data Lake Storage
Azure Data Lake Storage (ADLA) now natively supports Parquet files. ADLA adds a public preview of the native extractor and outputter for the popular Parquet file format Box 3: Azure SQL Database Persist a tabular representation of data that is stored in parquet format.
Reference:
https://docs.microsoft.com/en-us/azure/data-factory/supported-file-formats-and-compression- codecs
다음 중 실시간 데이터 처리의 특징은 무엇입니까? (2개 선택)

正解:A、C 解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
핫스팟 질문
문장을 올바르게 완성하는 답을 선택하세요.
正解:

Explanation:
https://docs.microsoft.com/en-us/azure/cosmos-db/create-graph-gremlin-console
파이프라인 실행을 시작하는 Azure Data Factory 구성 요소는 무엇인가요?

解説: (JPNTest メンバーにのみ表示されます)
핫스팟 질문
문장을 올바르게 완성하는 답을 선택하세요.
正解:
핫스팟 질문
다음 각 문장에 대해 문장이 사실이라면 예를 선택하세요. 그렇지 않으면 아니요를 선택하세요.
참고사항: 정답 하나당 1점입니다.
正解:

Explanation:
Box 1: No
You can duplicate a dashboard. The duplicate ends up in the same Power BI workspace. There is no current functionality that allows you to move reports from one workspace to another.
Box 2: No
Box 3: Yes
Reference:
https://docs.microsoft.com/en-us/power-bi/connect-data/service-datasets-across-workspaces
https://docs.microsoft.com/en-us/power-bi/consumer/end-user-dashboards
https://powerbi.microsoft.com/en-us/excel-and-power-bi/
드래그 앤 드롭 질문
Azure 서비스를 아키텍처의 적절한 위치에 맞춰 배치합니다.
답변하려면 왼쪽 열에서 해당 서비스를 오른쪽 위치로 끌어다 놓으세요.
각 서비스는 한 번 이용할 수도 있고, 여러 번 이용할 수도 있고, 전혀 이용하지 않을 수도 있습니다.
참고사항: 정답을 하나 맞히면 1점입니다.
正解:

Explanation:
Box Ingest: Azure Data Factory
You can build a data ingestion pipeline with Azure Data Factory (ADF).
Box Preprocess & model: Azure Synapse Analytics
Use Azure Synapse Analytics to preprocess data and deploy machine learning models.
Reference:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-data-ingest-adf
https://docs.microsoft.com/en-us/azure/machine-learning/team-data-science-process/sqldw- walkthrough
드래그 앤 드롭 질문
직무 역할을 적절한 업무에 맞춰 배치합니다.
대답하려면 왼쪽 열에서 해당 직무 역할을 오른쪽의 해당 작업으로 끌어다 놓으세요. 각 역할은 한 번, 두 번 이상 또는 전혀 사용되지 않을 수 있습니다.
참고사항: 정답을 하나 맞히면 1점입니다.
正解:

Explanation:
The job roles define differentiated tasks and responsibilities. In some organizations, the same person might perform multiple roles; so in their role as database administrator they might provision a transactional database, and then in their role as a data engineer they might create a pipeline to transfer data from the database to a data warehouse for analysis.
https://learn.microsoft.com/en-us/training/modules/explore-roles-responsibilities-world-of-data/2- explore-job-roles

弊社を連絡する

我々は12時間以内ですべてのお問い合わせを答えます。

オンラインサポート時間:( UTC+9 ) 9:00-24:00
月曜日から土曜日まで

サポート:現在連絡