次の認定試験に速く合格する!
簡単に認定試験を準備し、学び、そして合格するためにすべてが必要だ。
(A)各処理ステップの後に Reshuffle 操作を挿入し、Dataflow コンソールで実行の詳細を監視します。
(B)各キー処理ステップの後に出力シンクを挿入し、各ブロックの書き込みスループットを観察します。
(C)各 ParDo 関数のデバッグ情報をログに記録し、実行時にログを分析します。
(D)Dataflow サービス アカウントに、処理されたデータを出力シンクに書き込むための適切な権限があることを確認します。
(A)1 マルチリージョンの Cloud Storage バケットを使用する2 Cloud Monitoring を使用して Dataflow 指標を監視し、いつ停止が発生したかを判断する3 確認済みのメッセージを回復するために、サブスクリプションを60分前に戻す4 セカンダリリージョンでデータフロージョブを開始する
(B)1. ターボレプリケーションを有効にしたデュアルリージョンの Cloud Storage バケットを使用する2 Cloud Monitoring を使用して Dataflow 指標を監視し、いつ停止が発生したかを判断する3 確認済みのメッセージを回復するために、サブスクリプションを60分前に戻す4 セカンダリ リージョンで Dataflow ジョブを開始します。
(C)1 リージョンの Cloud Storage バケットを使用する2 Cloud Monitoring を使用して Dataflow 指標を監視し、いつ停止が発生したかを判断する3 確認済みのメッセージを回復するために、サブスクリプションを1日前まで遡って検索する4 セカンダリリージョンでデータフロージョブを開始し、同じリージョンのバケットに書き込む
(D)1. デュアルリージョンの Cloud Storage バケットを使用します。2. Cloud Monitoring を使用して Dataflow 指標を監視し、いつ停止が発生したかを判断する3 確認済みのメッセージを回復するために、サブスクリプションを15分前に戻す4 セカンダリリージョンでデータフロージョブを開始する
(A)TensorFlow を使用して、語彙リストを含むカテゴリ変数を作成します。語彙ファイルを作成し、それをモデルの一部として BigQuery ML にアップロードします。
(B)Cloud Data Fusion を使用して、各都市を 1、2、3、4、または 5 のラベルが付けられた地域に割り当て、その番号を使用してモデル内で都市を表します。
(C)BigQuery の SQL を使用して、ワンホット エンコーディング方式で古い列を変換し、各都市をバイナリ値を持つ列にします。
(D)都市情報の列を含まない新しいビューを BigQuery で作成します。
(A)BigOuery を使用してデータ系統を追跡し、Dataprep を使用してデータを管理し、データ品質の検証を実行します。
(B)Dataplex を使用して、データを管理し、データ系統を追跡し、データ品質の検証を実行します。
(C)BigLake を使用して、現在のソリューションをデータ レイク アーキテクチャに変換します。
(D)新しいソースのオンボーディングとデータ系統の追跡に役立つ新しいデータ検出ツールを Google Kubernetes Engine 上に構築します。
(A)シングルサインオン(SSO)プラットフォームと統合し、クエリリクエストとともに各ユーザーの資格情報を渡します。
(B)ダミーユーザーを作成し、そのユーザーにデータセットへのアクセスを許可します。そのユーザーのユーザー名とパスワードをファイルシステム上のファイルに保存し、その認証情報を使用して BigQuery データセットにアクセスします。
(C)ユーザーのグループを作成し、そのグループにデータセットへのアクセス権を付与します。
(D)サービスアカウントを作成し、そのアカウントにデータセットへのアクセスを許可します。データセットにアクセスするには、サービスアカウントの秘密鍵を使用します。
(A)出力ラベルと相関性の高い特徴を排除します。
(B)各特徴量を個別に入力するのではなく、3 つのバッチで値を平均します。
(C)トレーニング レコードの 50% を超える部分に null 値を持つ機能を削除します。
(D)相互依存性の高い機能を 1 つの代表的な機能に結合します。
(A)リスクのあるタスクを担当するオペレーターの on_retry_callback パラメータに通知ロジックを持つ関数を割り当てます。
(B)リスクのあるタスクを担当するオペレーターの sla_miss_callback パラメータに通知ロジックを持つ関数を割り当てます。
(C)リスクのあるタスクに関連付けられた sla_missed 指標に対して Cloud Monitoring アラートを構成して、通知をトリガーします。
(D)リスクのあるタスクを担当するオペレーターの on_failure_callback パラメータに通知ロジックを持つ関数を割り当てます。
(A)売上テーブルの上にマテリアライズド ビューを構築し、日レベルと月レベルでデータを集計します。
(B)売上テーブルの上に承認済みビューを構築し、日レベルと月レベルでデータを集計します。
(C)Bl Engine を有効にし、販売テーブルを優先テーブルとして追加します。
(D)スケジュールされたクエリを作成して、売上日と売上月を 1 時間ごとに集計テーブルを作成します。
(A)Cloud Dataproc、Cloud Dataflow、BigQuery
(B)Cloud Pub/Sub、Cloud Storage、BigQuery
(C)Cloud Pub/Sub、Cloud Dataproc、Cloud SQL
(D)Cloud Dataflow、Cloud SQL、Cloud Spanner
(A)すべてのPllデータを編集し、編集されていないデータのバージョンをロックダウンされたバケットに保存します。
(B)BigQuery内のすべてのテーブルをスキャンし、Pllを含むデータが見つかった場合はマスクします。
(C)Pll データを暗号化トークンに置き換えて仮名を作成し、トークン化されていないデータをロックダウンされたボタンに保存します。
(D)Pllデータを暗号形式保存トークンに置き換えて仮名を作成する
(A)Data Fusion を使用して ETL パイプラインを構築および実行する
(B)Dataflow ジョブを使用して Pub/Sub からデータを読み取り、データを変換し、BigQuery に読み込みます。
(C)Dataform を使用して、SQL パイプラインを構築、管理、スケジュールします。
(D)Cloud Composer を使用してデータを読み込み、BigQuery ジョブ演算子を使用して SQL パイプラインを実行します。
(A)Google クラウド ストレージ
(B)クラウド ビッグテーブル
(C)Google BigQuery
(D)Google Cloud データストア
(A)データベースからレコードを Avro ファイルとしてエクスポートします。ファイルを Transfer Appliance にコピーして Google に送信し、GCP Console の BigQuery ウェブ UI を使用して Avro ファイルを BigQuery に読み込みます。
(B)データベースのレコードを CSV ファイルにエクスポートします。CSV ファイルのパブリック URL を作成し、Storage Transfer Service を使用してファイルを Cloud Storage に移動します。GCP Console の BigQuery ウェブ UI を使用して、CSV ファイルを BigQuery に読み込みます。
(C)データベースからレコードを Avro ファイルとしてエクスポートします。gsutil を使用してファイルを GCS にアップロードし、GCP Console の BigQuery ウェブ UI を使用して Avro ファイルを BigQuery に読み込みます。
(D)データベースからレコードを Avro ファイルとしてエクスポートします。Avro ファイルの公開 URL を作成し、Storage Transfer Service を使用してファイルを Cloud Storage に移動します。GCP Console の BigQuery ウェブ UI を使用して、Avro ファイルを BigQuery に読み込みます。
(A)NoSQL の概念に基づいたスキーマ設計を避ける
(B)行間の原子性を必要とするスキーマ設計を作成する
(C)リレーショナルデータベース設計に基づいたスキーマ設計を作成する
(D)行間の原子性を必要とするスキーマ設計を避ける
(A)特別なブラウザ
(B)VPN接続
(C)SSHトンネル
(D)FTP接続
(A)標準インスタンスを含む 10 ノードの Compute Engine インスタンス グループに Hadoop と Spark をインストールします。Cloud Storage コネクタをインストールし、データを Cloud Storage に保存します。スクリプト内の参照を hdfs:// から gs:// に変更します。
(B)プリエンプティブ インスタンスを含む 10 ノードの Compute Engine インスタンス グループに Hadoop と Spark をインストールします。データを HDFS に保存します。スクリプト内の参照を hdfs:// から gs:// に変更します。
(C)Cloud Dataproc クラスタをデプロイします。標準の永続ディスクと 50% のプリエンプティブ ワーカーを使用します。データを Cloud Storage に保存し、スクリプト内の参照を hdfs:// から gs:// に変更します。
(D)Cloud Dataproc クラスタをデプロイします。SSD 永続ディスクと 50% のプリエンプティブ ワーカーを使用します。データを Cloud Storage に保存し、スクリプト内の参照を hdfs:// から gs:// に変更します。
(A)行を8ビット整数として保持します
(B)行キーを適度に短く保つ
(C)フィールドが許す限り行キーを保持します
(D)行キー内に複数の時系列値を含める
(A)Cloud Pub/Sub トピックに公開されているメッセージが多すぎます。
(B)センサー イベントのメッセージ本文が大きすぎます。
(C)カスタム エンドポイントが確認期限内にメッセージを確認していません。
(D)カスタム エンドポイントに古い SSL 証明書があります。
我々は12時間以内ですべてのお問い合わせを答えます。
オンラインサポート時間:( UTC+9 ) 9:00-24:00月曜日から土曜日まで
サポート:現在連絡