※ 他の問題集は「タグ:Professional Data Engineer の模擬問題集」から一覧いただけます。
この模擬問題集は「Professional Data Engineer Practice Exam (2021.03.05)」の回答・参考リンクを改定した日本語版の模擬問題集です。
Google Cloud 認定資格 – Professional Data Engineer – 模擬問題集(全 41問)
Question 1
この会社では配送ラインにカメラを追加して輸送中の荷物の視覚的な損傷を検出して追跡したいと考えています。
破損した荷物の検出を自動化して荷物が輸送中にリアルタイムで人間が確認できるようにフラグを立てる方法を作成する必要があります。
どのソリューションを選択すべきでしょうか?
- A. Google BigQuery ML を使用してモデルを大規模にトレーニングできるため、パッケージをバッチで分析できるようにします。
- B. 画像のコーパス上で Google Cloud AutoML モデルをトレーニングしてそのモデルを中心とした API を構築してパッケージ追跡アプリケーションと統合します。
- C. Google Cloud Vision API を使用して損傷を検出して Google Cloud Functions を通じてアラートを発行します。パッケージ追跡アプリケーションをこの機能と統合します。
- D. TensorFlow を使用して画像のコーパス上で訓練されるモデルを作成します。Google Cloud Datalab でこのモデルを使用するPython ノートブックを作成して破損したパッケージの分析ができるようにします。
Correct Answer: B
Question 2
運送会社は出荷ラベルを読み取るためにハンドヘルド スキャナーを使用しています。
会社には厳しいデータプライバシー基準があり、スキャナーは受信者の個人情報(PII)のみを分析システムに送信する必要があります。これはユーザーのプライバシールールに違反します。分析システムへのPII の流出を防ぐためにクラウド ネイティブのマネージドサービスを使用して拡張性のあるソリューションを迅速に構築したいと考えています。
どうすればよいでしょうか?
- A. Google BigQuery で承認済みビューを作成して機密データのあるテーブルへのアクセスを制限します。
- B. Google Compute Engine 仮想マシンにサードパーティのデータ検証ツールをインストールして受信データの機密情報を確認します。
- C. Stackdriver Logging を使用してパイプライン全体を通過するデータを分析して機密情報を含む可能性のあるトランザクションを特定します。
- D. トピックを読み取り、Google Cloud Data Loss Prevention API への呼び出しを行う Google Cloud Function を作成します。タグ付けと信頼度を使用してレビューのためにバケット内のデータを渡すか隔離します。
Correct Answer: D
Question 3
広告会社は広告ブロックでのクリックスルー率を予測するSpark ML モデルを開発しました。
これまでオンプレミスのデータセンターですべての開発を行っていましたが、このたび Google Cloud に移行することになりました。データセンターの閉鎖が間近に迫っているため、迅速なLift & Shift が必要です。しかし、これまで使用していたデータは Google BigQueryに移行されます。Spark ML モデルを定期的に再トレーニングするため、既存のトレーニングパイプラインを Google Cloud に移行する必要があります。
何をすべきでしょうか?
- A. 既存のSpark ML モデルのトレーニングに Google Cloud ML Engine を使用します。
- B. TensorFlow でモデルを書き換え、Google Cloud ML Engine の使用を開始します。
- C. 既存のSpark ML モデルのトレーニングに Google Cloud Dataproc を使用しますが Google BigQuery から直接データの読み取りを開始します。
- D. Google Compute Engine でSpark クラスタを起動して Google BigQuery からエクスポートしたデータでSpark ML モデルをトレーニングします。