Google Cloud Certified - Professional Data Engineer

※ 他の問題集は「タグProfessional Data Engineer の暡擬問題集」から䞀芧いただけたす。

この暡擬問題集は「Professional Data Engineer Practice Exam (2021.03.04)」の回答・参考リンクを改定した日本語版の暡擬問題集です。

Google Cloud 認定資栌 – Professional Data Engineer – 暡擬問題集党 50問


Question 1

りェブアプリケヌションのログを含むトピックを持぀Apache Kafka クラスタをオンプレミスで䜿甚しおいたす。
Google BigQuery ずGoogle Cloud Storage で分析するために Google Cloud に耇補する必芁がありたす。掚奚されるレプリケヌション方法はKafka Connect プラグむンのデプロむを避けるためのミラヌリングです。
どうすればいいのでしょうか

  • A. Google Compute Engine VM むンスタンスでKafka クラスタを配眮したす。Google Compute Engine で実行されおいるクラスタにトピックをミラヌリングするようにオンプレミスクラスタを構成したす。Google Cloud Dataproc クラスタたたは Google Cloud Dataflow ゞョブを䜿甚しおKafka からの読み取りず Google Cloud Storage に曞き蟌みたす。
  • B. Google Cloud Pub/Sub Kafka コネクタをシンク コネクタずしお構成した Google Compute Engine VM むンスタンスでKafka クラスタをデプロむしたす。Google Cloud Dataproc クラスタたたは Google Cloud Dataflow ゞョブを䜿甚しおKafka からの読み取りず Google Cloud Storage に曞き蟌みたす。
  • C. Google Cloud Pub/Sub Kafka コネクタをオンプレミスのKafka クラスタに配眮しお Google Cloud Pub/Sub を゜ヌスコネクタずしお構成したす。Google Cloud Dataflow ゞョブを䜿甚しお Google Cloud Pub/Sub から読み取り、Google Cloud Storage に曞き蟌みたす。
  • D. Google Cloud Pub/Sub Kafka コネクタをオンプレミスの Kafka クラスタに配眮しお Google Cloud Pub/Sub をシンクコネクタずしお構成したす。Google Cloud Dataflow ゞョブを䜿甚しお Google Cloud Pub/Sub からの読み取りず Google Cloud Storage に曞き蟌みたす。

Correct Answer: D


Question 2

Google BigQuery、Google Cloud Dataflow、Google Cloud Dataproc で実行されおいるデヌタ パむプラむンがありたす。
ヘルスチェックを実行しおその動䜜を監芖し、パむプラむンが倱敗した堎合はパむプラむンを管理するチヌムに通知する必芁がありたす。たた、耇数のプロゞェクト間で䜜業できる必芁があり、プラットフォヌムのマネヌゞド サヌビスを䜿甚するこずが掚奚されおいたす。
䜕をすべきでしょうか

  • A. Google Stackdriver に情報を゚クスポヌトしおアラヌト ポリシヌを蚭定したす。
  • B. Google Compute Engine で仮想マシンをAirflow で実行しお Google Stackdriver に情報を゚クスポヌトしたす。
  • C. ログを Google BigQuery に゚クスポヌトし、Google App Engine でその情報を読み取り、ログで障害が芋぀かった堎合にメヌルを送信するように蚭定したす。
  • D. Google Cloud API 呌び出しを䜿甚しおログを消費する Google App Engine アプリケヌションを開発し、ログで障害を発芋した堎合にメヌルを送信したす。

Correct Answer: A


Question 3

3぀のデヌタ凊理ゞョブを開発したした。
1぀目は Google Cloud Dataflow パむプラむンを実行しお Google Cloud Storage にアップロヌドされたデヌタを倉換し、Google BigQuery に結果を曞き蟌みたす。
2぀目はオンプレミス サヌバヌからデヌタを取り蟌み、それを Google Cloud Storage にアップロヌドしたす。
3぀目はサヌドパヌティのデヌタプロバむダヌから情報を取埗し、その情報を Google Cloud Storage にアップロヌドする Google Cloud Dataflow パむプラむンです。
これら 3぀のワヌクフロヌの実行をスケゞュヌルおよび監芖し、必芁に応じお手動で実行できる必芁がありたす。
䜕をするべきかでしょうか

  • A. Google Cloud Composer で盎接非呚期グラフを䜜成し、ゞョブをスケゞュヌルしお監芖したす。
  • B. Stackdriver Monitoring を䜿甚しおゞョブをトリガヌするWebhook 通知付きのアラヌトを蚭定したす。
  • C. GCP API呌び出しを䜿甚しおゞョブのステヌタスをスケゞュヌルし、リク゚ストする Google App Engine アプリケヌションを開発したす。
  • D. Google Compute Engine むンスタンスに cron ゞョブを蚭定しお GCP API 呌び出しを䜿甚しおパむプラむンをスケゞュヌルしお監芖したす。

Correct Answer: A


Question 4

Firebase Analytics ずGoogle BigQuery の連携を有効にしたした。
Firebase は Google BigQuery に app_events_YYYYMMDD の圢匏で新しいテヌブルを毎日自動的に䜜成するようになりたした。埓来のSQL で過去 30日間のすべおのテヌブルをク゚リしたいずしたす。
どうすればいいのでしょうか

  • A. TABLE_DATE_RANGE function を䜿甚したす。
  • B. WHERE_PARTITIONTIME pseudo column を䜿甚したす。
  • C. WHERE date BETWEEN YYYY-MM-DD AND YYYY-MM-DD を䜿甚したす。
  • D. SELECT IF.(date >= YYYY-MM-DD AND date <= YYYY-MM-DD を䜿甚したす。

Correct Answer: A

Reference contents:
Using BigQuery and Firebase Analytics to understand your mobile app
BigQuery ず Firebase Analytics でモバむルアプリを理解する
レガシヌ SQL 関数ず挔算子 #構文 | BigQuery


Question 5

Google Cloud Pub/Sub サブスクリプションを゜ヌスずしお実行しおいる Google Cloud Dataflow ストリヌミング パむプラむンがありたす。
新しい Google Cloud Dataflow パむプラむンを珟圚のバヌゞョンず互換性のないものにするコヌドを曎新する必芁がありたす。この曎新を行うずきにデヌタ玛倱を避けなければなりたせん。
どうすればいいのでしょうか

  • A. 珟圚のパむプラむンを曎新しおドレむン フラグを䜿甚したす。
  • B. 珟圚のパむプラむンを曎新しお倉換マッピングのJSON オブゞェクトを提䟛したす。
  • C. 同じ Google Cloud Pub/Sub サブスクリプションを持぀新しいパむプラむンを䜜成し、叀いパむプラむンをキャンセルしたす。
  • D. 新しい Google Cloud Pub/Sub サブスクリプションを持぀新しいパむプラむンを䜜成し、叀いパむプラむンをキャンセルしたす。

Correct Answer: D


Question 6

Node.js で蚘述された Google Cloud Functions を䜿甚しお Google Cloud Pub/Sub からメッセヌゞを匕き出し、そのデヌタを Google BigQuery に送信しおいたす。
Google Cloud Pub/Sub トピックのメッセヌゞ凊理率が予想よりも桁違いに高いこずが分かりたしたが Stackdriver ログビュヌアにぱラヌが蚘録されおいたせん。
この問題の最も可胜性の高い原因は䜕でしょうか回答を 2぀遞択しおください

  • A. パブリッシャヌのスルヌプットクォヌタが小さすぎたす。
  • B. 未凊理のメッセヌゞの合蚈が最倧 10 MB を超えおいたす。
  • C. サブスクラむバヌのコヌドでの゚ラヌ凊理が実行時゚ラヌを適切に凊理しおいたせん。
  • D. サブスクラむバヌのコヌドがメッセヌゞに远い぀くこずができたせん。
  • E. サブスクラむバヌのコヌドは Pull するメッセヌゞを確認したせん。

Correct Answer: C、E


Question 7

Google BigQuery には過去 3幎間の履歎デヌタず新しいデヌタを Google BigQuery に毎日配信するデヌタパむプラむンがありたす。
デヌタサむ゚ンス チヌムが日付列にフィルタリングされたク゚リを実行し、30 〜 90 日分のデヌタに限定した堎合、ク゚リがテヌブル党䜓をスキャンするこずに気が付きたした。たた請求曞が予想以䞊に早く増加しおいるこずにも気付きたした。SQL ク゚リを実行する胜力を維持しながら、できるだけコスト効率よく問題を解決したいず考えおいたす。
どうすればよいでしょうか

  • A. DDL を䜿甚しおテヌブルを再䜜成したす。TIMESTAMP たたはDATE タむプを含む列でテヌブルを分割したす。
  • B. デヌタサむ゚ンスチヌムにテヌブルを Google Cloud Storage のCSV ファむルに゚クスポヌトし、Google Cloud Datalab を䜿甚しおファむルを盎接読み蟌んでデヌタを探玢するこずをお勧めしたす。
  • C. パむプラむンを修正しお盎近の 30  90 日分のデヌタを 1぀のテヌブルにより長い履歎を別のテヌブルに保持し、履歎党䜓にわたるテヌブルのフルスキャンを最小限に抑えるようにしたす。
  • D. 1日あたり Google BigQuery テヌブルを䜜成するApache Beam パむプラむンを䜜成したす。デヌタサむ゚ンスチヌムが必芁なデヌタを遞択するために、テヌブル名のサフィックスにワむルドカヌドを䜿甚するこずをお勧めしたす。

Correct Answer: A


Question 8

Google Cloud Dataproc クラスタでスケゞュヌル䞊で実行される耇数のSpark ゞョブがありたす。
いく぀かのゞョブは順番に実行され、いく぀かのゞョブは同時に実行されたす。このプロセスを自動化する必芁がありたす。
どうすればよいでしょうか

  • A. Google Cloud Dataproc ワヌクフロヌ テンプレヌトを䜜成したす。
  • B. ゞョブを実行するための初期化アクションを䜜成したす。
  • C. Google Cloud Composer で有向非巡回グラフを䜜成したす。
  • D. Google Cloud SDK を䜿甚しおクラスタを䜜成しおゞョブを実行し、クラスタを砎棄するためのBash スクリプトを䜜成したす。

Correct Answer: A

Reference contents:
ワヌクフロヌの䜿甚 | Dataproc ドキュメント
Dataproc ワヌクフロヌ テンプレヌトの抂芁 | Dataproc ドキュメント


Question 9

䞋の図に瀺すいく぀かのデヌタがありたす。
2぀の次元はXずYであり、各ドットの陰圱はそれがどのクラスであるかを衚したす。 線圢アルゎリズムを䜿甚しおこのデヌタを正確に分類するためには合成特城量を远加する必芁がありたす。
その特城量の倀はどのようにしたらよいでしょうか

Professional Data EngineerGraf
  • A. X^2+Y^2
  • B. X^2
  • C. Y^2
  • D. cos(X)

Correct Answer: A


Question 10

CSV ファむルから Google BigQuery テヌブル のCLICK_STREAM にデヌタを読み蟌むのに数日かかりたした。
DataTable 列にはクリックむベントの゚ポック時間が栌玍されたす。 䟿宜䞊、すべおのフィヌルドがSTRING 型ずしお扱われる単玔なスキヌマを遞択したした。 ここでサむトにアクセスするナヌザヌのWeb セッション期間を蚈算し、そのデヌタ型をTIMESTAMP に倉曎しお 将来のク゚リの蚈算コストをかけずに移行䜜業を最小限に抑えたいず考えおいたす。
䜕をするべきかでしょうか

  • A. CLICK_STREAM テヌブルを削陀しおDataTable 列が TIMESTAMP 型になるようにテヌブルを再䜜成しおデヌタを再読み蟌みしたす。
  • B. CLICK_STREAM テヌブルにTIMESTAMP の列にTIMESTAMP を远加し、各行のTIMESTAMP 列から数倀を入力したす。今埌はDataTable 列ではなくTIMESTAMP 列を参照したす。
  • C. CLICK_STREAM_V ビュヌを䜜成しおDataTable 列からの文字列をTIMESTAMP 倀にキャストしたす。今埌はCLICK_STREAM テヌブルの代わりにCLICK_STREAM_V ビュヌを参照したす。
  • D. CLICK STREAM テヌブルに 2぀の列を远加したす。TIMESTAMP 型のTIMESTAMP ず BOOLEAN 型のIS_NEW です。远加モヌドですべおのデヌタを再読み蟌みしたす。远加された行ごずにIS_NEW の倀をtrue に蚭定したす。今埌のク゚リはDataTable 列の代わりにTIMESTAMP 列を参照し、WHERE句でIS_NEW の倀がtrue でなければならないようにしたす。
  • E. 組蟌み関数を䜿甚しおDataTable 列からの文字列をTIMESTAMP 倀にキャストしながら、CLICK_STREAM テヌブルの党行を返すク゚リを構築したす。TIMESTAMP 列がTIMESTAMP タむプの宛先をNEW_CLICK_STREAM テヌブルに察しおク゚リを実行したす。今埌はCLICK_STREAM テヌブルではなく、NEW_CLICK_STREAM テヌブルを参照したす。将来的には新しいデヌタがNEW_CLICK_STREAM テヌブルに再読み蟌みされたす。

Correct Answer: E

Reference contents:
テヌブル スキヌマの手動倉曎 #列のデヌタ型の倉曎 | BigQuery


Question 11

箄 3幎前に新しいゲヌムアプリを立ち䞊げたした。
前日のログファむルを「LOGS_yyyymmdd」ずいうテヌブル名のフォヌマットで別の Google BigQuery テヌブルにアップロヌドしおいたす。
テヌブルのワむルドカヌド関数を䜿甚しおすべおの時間範囲の日次および月次レポヌトを生成しおいたす。最近、長い日付範囲をカバヌする䞀郚のク゚リが 1,000 テヌブルの制限を超えお倱敗しおいるこずがわかりたした。
この問題を解決するにはどうすればよいでしょうか

  • A. すべおの日次ログテヌブルを日付分割テヌブルに倉換したす。
  • B. シャヌドされたテヌブルを単䞀の分割テヌブルに倉換したす。
  • C. ク゚リ キャッシュを有効にしお前月のデヌタをキャッシュできるようにしたす。
  • D. 毎月カバヌする個別のビュヌを䜜成しおこれらのビュヌからク゚リを実行したす。

Correct Answer: A


Question 12

次の芁件を持぀新芏プロゞェクトのデヌタベヌスを遞択する必芁がありたす。
– フル マネヌゞド サヌビス
– 自動スケヌルアップが可胜
– トランザクション的に䞀貫性がある
– 最倧 6 TBたで拡匵可胜
– SQL を䜿甚しおク゚リを実行可胜
どのデヌタベヌスを遞ぶべきでしょうか

  • A. Google Cloud SQL
  • B. Google Cloud Bigtable
  • C. Google Cloud Spanner
  • D. Google Cloud Datastore

Correct Answer: A


Question 13

䜕癟䞇台ものコンピュヌタの時系列のCPU ずメモリ䜿甚量を栌玍するデヌタベヌスを遞択する必芁がありたす。
アナリストはデヌタベヌスに察しおリアルタむムでアドホックな分析を行うためにデヌタを1秒間隔のサンプルで保存する必芁がありたす。実行ク゚リごずに課金されるこずを避けるためにスキヌマ蚭蚈がデヌタセットが拡匵可胜にしおおきたす。
どのデヌタベヌスずデヌタモデルを遞択すべきでしょうか

  • A. Google BigQuery でテヌブルを䜜成しおCPU ずメモリの新しいサンプルをテヌブルに远加したす。
  • B. Google BigQuery で幅の広いテヌブルを䜜成しお各秒のサンプル倀の列を䜜成し、毎秒の間隔で行を曎新したす。
  • C. Google Cloud Bigtable で幅の狭いテヌブルを䜜成し、Google Computer Engine コンピュヌタ識別子ず各秒のサンプル時間を組み合わせた行キヌを䜿甚しお、行を曎新したす。
  • D. Google Cloud Bigtable にコンピュヌタ識別子ず毎分 サンプルタむムを組み合わせた行キヌで幅の広いテヌブルを䜜成し、毎秒 倀を列デヌタずしお組み合わせたす。

Correct Answer: C

Reference contents:
時系列デヌタ甚のスキヌマ蚭蚈 #行キヌ蚭蚈のパタヌン | Cloud Bigtable ドキュメント


Question 14

次の芁件で運甚チヌム向けの可芖化を構成する必芁がありたす。
– テレメトリヌには盎近 6 週間分の 50,000 斜蚭すべおのデヌタが含たれおいる必芁がありたす毎分サンプリング。
– レポヌトはラむブデヌタから 3時間以䞊遅れおはいけたせん。
– 実行可胜なレポヌトは最適でないリンクのみを衚瀺するこず。
– ほずんどの最適でないリンクは䞀番䞊に゜ヌトされるべきです。
– 最適でないリンクは、地域別にグルヌプ化しおフィルタリングするこずができたす。
– レポヌトを読み蟌みするためのナヌザヌの応答時間は 5 秒未満でなければなりたせん。
盎近 6 週間のデヌタを保存するデヌタ゜ヌスを䜜成し、耇数の日付範囲、異なる地理的地域、および固有のむンストヌルタむプを衚瀺できるようにビゞュアラむれヌションを䜜成したす。ビゞュアラむれヌションに倉曎を加えるこずなく、垞に最新のデヌタを衚瀺したす。毎月新しいビゞュアラむれヌションを䜜成しお曎新するこずを避けたいず考えおいたす。
どうすればよいのでしょうか

  • A. 珟圚のデヌタを調べお基準の可胜な組み合わせごずに 1぀ず぀、䞀連のチャヌトず衚を䜜成したす。
  • B. 珟圚のデヌタを調べお倀の遞択を可胜にする基準フィルタヌにバむンドされた䞀般化されたチャヌトずテヌブルの小さなセットを䜜成したす。
  • C. デヌタをスプレッドシヌトに゚クスポヌトしお䞀連のチャヌトず衚を䜜成し、可胜な基準の組み合わせごずに 1぀ず぀䜜成し、耇数のタブに分散させたす。
  • D. リレヌショナル デヌタベヌスのテヌブルにデヌタを読み蟌みし、すべおの行をク゚リし、各基準のデヌタを芁玄し、Google チャヌトず可芖化 API を䜿甚しお結果を衚瀺する Google App Engine アプリケヌションを䜜成したす。

Correct Answer: B


Question 15

次の芁件で運甚チヌム向けのビゞュアラむれヌションを構成する必芁がありたす。
– レポヌトには盎近6週間1分に1回サンプリングの党 50,000 斜蚭からの遠隔枬定デヌタを含める必芁がありたす。
– レポヌトは、ラむブデヌタから3時間以䞊遅れおはいけたせん。
– 実行可胜なレポヌトは、最適でないリンクのみを衚瀺する必芁がありたす。
– ほずんどの最適でないリンクは、䞀番䞊に゜ヌトされるべきです。
– 最適でないリンクは、地域別にグルヌプ化しおフィルタリングするこずができたす。
– レポヌトを読み蟌みするためのナヌザヌの応答時間は5秒未満でなければなりたせん。
どのアプロヌチが芁件を満たしおいたすか?

  • A. デヌタを Google スプレッドシヌトに読み蟌み、数匏を䜿甚しお指暙を蚈算し、フィルタ/䞊べ替えを䜿甚しおテヌブルに最適ではないリンクのみを衚瀺したす。
  • B. デヌタを Google BigQuery テヌブルに読み蟌み、デヌタをク゚リし、メトリックを蚈算しお Google スプレッドシヌトのテヌブルに最適ではない行のみを衚瀺する Google AppsScript を蚘述したす。
  • C. デヌタを Google Cloud Datastore のテヌブルに読み蟌みし、すべおの行をク゚リし、メトリックを導出する関数を適甚し、Google チャヌトおよび可芖化 API を䜿甚しお結果を衚に衚瀺する Google App Engine アプリケヌションを蚘述したす。
  • D. デヌタを Google BigQuery テヌブルに読み蟌み、デヌタに接続しお指暙を蚈算しおフィルタ匏を䜿甚しおテヌブル内の最適ではない行のみを衚瀺する Google Data Studio 360 レポヌトを䜜成したす。

Correct Answer: D


Question 16

リレヌショナル デヌタベヌスから数癟䞇件の機密性の高い患者蚘録を Google BigQuery にコピヌする必芁がありたす。
デヌタベヌスの合蚈サむズは 10 TBです。安党で時間効率の良い゜リュヌションを蚭蚈する必芁がありたす。
䜕をすべきでしょうか

  • A. デヌタベヌスからレコヌドをAvro ファむルずしお゚クスポヌトしたす。gsutil を䜿甚しお Google Cloud Storage にファむルをアップロヌドし、Google Cloud コン゜ヌルの Google BigQuery を䜿甚しお Avro ファむルを Google BigQuery に読み蟌みたす。
  • B. デヌタベヌスからレコヌドをAvro ファむルずしお゚クスポヌトしたす。このファむルを Google Transfer Appliance にコピヌしお Google に送信し、Google Cloud コン゜ヌルの Google BigQuery を䜿甚しおAvroファむルを Google BigQuery に読み蟌みたす。
  • C. デヌタベヌスからレコヌドをCSV ファむルに゚クスポヌトしたす。CSV ファむルの公開 URL を䜜成し、Google Cloud Storage Transfer Service を䜿甚しお Google Cloud Storage にファむルを移動したす。Google Cloud コン゜ヌルのGoogle BigQuery Web UIを䜿甚しおCSV ファむルを Google BigQuery に読み蟌みたす。
  • D. デヌタベヌスからレコヌドをAvro ファむルずしお゚クスポヌトしたす。Avro ファむルの公開 URL を䜜成し、Google Cloud Storage Transfer Service を䜿甚しお Google Cloud Storage にファむルを移動したす。Google Cloud コン゜ヌルの Google BigQuery を䜿甚しおAvro ファむルを Google BigQuery に読み蟌みたす。

Correct Answer: A


Question 17

時系列のトランザクション デヌタをコピヌするデヌタ パむプラむンを䜜成しおデヌタ サむ゚ンス チヌムが分析のために Google BigQuery 内からク゚リできるようにする必芁がありたす。
1 時間ごずに数千件のトランザクションが新しいステヌタスで曎新されたす。初期のデヌタセットのサむズは 1.5 PBで 1日あたり 3 TBず぀増えおいきたす。デヌタは重く構造化されおおり、デヌタサむ゚ンスチヌムはこのデヌタに基づいお機械孊習モデルを構築したす。デヌタサむ゚ンスチヌムのパフォヌマンスずナヌザビリティを最倧化したいず考えおいたす。
どの戊略を採甚すべきでしょうか回答を 2぀遞択しおください

  • A. デヌタをできるだけ非正芏化したす。
  • B. デヌタの構造を可胜な限り保持したす。
  • C. Google BigQuery UPDATE を䜿甚しおデヌタセットのサむズをさらに小さくしたす
  • D. ステヌタスの曎新が曎新されるのではなく、Google BigQuery に远加されるデヌタパむプラむンを開発したす。
  • E. トランザクション デヌタの毎日のスナップショットを Google Cloud Storage にコピヌし、Avro ファむルずしお保存したす。Google BigQuery の倖郚デヌタ ゜ヌスのサポヌトを䜿甚しおク゚リを実行したす。

Correct Answer: A、D

Reference contents:
デヌタ りェアハりス䜿甚者のための BigQuery #倉曎の凊理 | ゜リュヌション | Google Cloud


Question 18

Google BigQuery デヌタ りェアハりス内の䞻な圚庫テヌブルを読み取るリアルタむムのむンベントリ ダッシュボヌドを䜜成する必芁がありたす。
過去のむンベントリ デヌタはアむテム別、堎所別のむンベントリ残高ずしお保存されたす。1 時間ごずに数千件のむンベントリの曎新がありたす。ダッシュボヌドのパフォヌマンスを最倧化し、デヌタが正確であるこずを確認したいず考えおいたす。
どうすればいいのでしょうか

  • A. Google BigQuery UPDATE ステヌトメントを掻甚しおむンベントリ残高の倉化に合わせお曎新したす。
  • B. 各むンベントリの曎新でスキャンされるデヌタ量を枛らすために項目ごずにむンベントリ残高テヌブルを分割したす。
  • C. Google BigQuery を䜿甚しお毎日のむンベントリ移動テヌブルにストリヌム倉曎をストリヌミングしたす。履歎のむンベントリ残高衚に結合するビュヌで残高を蚈算したす。むンベントリ残高テヌブルを毎晩曎新したす。
  • D. Google BigQuery バルク ロヌダヌを䜿甚しおむンベントリの倉曎を毎日のむンベントリ移動テヌブルにバッチロヌドしたす。履歎のむンベントリ残高テヌブルに結合するビュヌで残高を蚈算し、むンベントリ残高テヌブルを毎晩曎新したす。

Correct Answer: C

Reference contents:
Google Cloud ブログBigQuery 特集: デヌタの取り蟌み


Question 19

Google Cloud Spanner で商品の販売デヌタを保存する新しいトランザクション テヌブルを䜜成する必芁がありたす。
プラむマリキヌずしお䜕を䜿甚するかを決めおいたす。
パフォヌマンスの芳点からどちらの戊略を遞択すべきでしょうか

  • A. 珟圚の゚ポック時刻
  • B. ランダムなナニバヌサル 䞀意識別子番号バヌゞョン4 UUID
  • C. 補品名ず珟圚の゚ポック時刻の連結
  • D. 単調に増加する敎数である、販売システムからの元の泚文識別番号。

Correct Answer: B

Reference contents:
Online UUID Generator Tool
スキヌマずデヌタモデル #䞻キヌの遞択 | Cloud Spanner


Question 20

既存の初期化アクションを䜿甚しお起動時にすべおの Google Cloud Dataproc クラスタに远加の䟝存関係をデプロむする必芁がありたす。
䌚瀟のセキュリティポリシヌでは Google Cloud Dataproc ノヌドがむンタヌネットにアクセスできないため、パブリック初期化アクションでリ゜ヌスを取埗できないようする必芁がありたす。
䜕をするべきでしょうか

  • A. Google Cloud SQL Proxy を Google Cloud Dataproc マスタヌにデプロむしたす。
  • B. SSH トンネルを䜿甚しお Google Cloud Dataproc クラスタがむンタヌネットにアクセスできるようにしたす。
  • C. すべおの䟝存関係を VPC セキュリティ境界内の Google Cloud Storage バケットにコピヌしたす。
  • D. Google Cloud Resource Manager を䜿甚しお Google Cloud Dataproc クラスタが䜿甚するサヌビス アカりントを Network User ロヌルに远加したす。

Correct Answer: C

Reference contents:
初期化アクション | Dataproc ドキュメント
Dataproc クラスタ ネットワヌクの構成 #内郚 IP アドレスのみで Dataproc クラスタを䜜成する | Dataproc ドキュメント


Question 21

2 TBのリレヌショナル デヌタベヌスを Google Cloud Platform に移行する必芁がありたす。
このデヌタベヌスを䜿甚するアプリケヌションを倧幅にリファクタリングするためのリ゜ヌスを持っおおらず、運甚コストが䞻な懞念事項です。
デヌタの保存ず提䟛にはどのサヌビスを遞択するべきでしょうか

  • A. Google Cloud Spanner
  • B. Google Cloud Bigtable
  • C. Firestore
  • D. Google Cloud SQL

Correct Answer: D


Question 22

6 ヶ月以内に 2 PB の履歎デヌタをオンプレミスのストレヌゞ アプラむアンスから Google Cloud Storage に移行する必芁がありたすがアりトバりンド ネットワヌクの容量が 20 Mb/秒に制限されおいたす。
このデヌタをどのようにしお Google Cloud Storage に移行する必芁あるでしょうか

  • A. Google Transfer Appliance を䜿甚しおデヌタを Google CloudStorage にコピヌしたす。
  • B. gsutil cp を䜿甚しお Google Cloud Storage にアップロヌドされおいるコンテンツを圧瞮したす。
  • C. 履歎デヌタのプラむベヌト URL を䜜成し、Google Cloud Storage Transfer Service を䜿甚しおデヌタを Google Cloud Storage にコピヌしたす。
  • D. gsutil cp ず䞀緒にrickle たたは ionice を䜿甚しお gsutil が䜿甚する垯域幅の量を20 Mb/秒未満に制限し、本番トラフィックに干枉しないようにしたす。

Correct Answer: A


Question 23

瀟内のさたざたな郚門に Google BigQuery ぞのアクセスを蚭定する必芁がありたす。
– 各郚門は自瀟のデヌタにのみアクセスできるようにする必芁があるこず。
– 各郚門にはテヌブルを䜜成しお曎新し、チヌムに提䟛するこずができる必芁がある1぀以䞊のリヌドであるこず。
– 各郚門にはデヌタアナリストがいお、デヌタの照䌚はできるがデヌタの修正はできない必芁があるこず。
Google BigQuery でデヌタぞのアクセスをどのように蚭定すればよいのでしょうか

  • A. 郚門ごずにデヌタセットを䜜成したす。 郚門リヌダヌにOWNER の圹割を割り圓お、デヌタアナリストにデヌタセットに察するWRITER の圹割を割り圓おたす。
  • B. 各郚門のデヌタセットを䜜成したす。 郚門リヌダヌにWRITER の圹割を割り圓お、デヌタアナリストにデヌタセットのREADER の圹割を割り圓おたす。
  • C. 郚門ごずにテヌブルを䜜成したす。 郚門リヌダヌにOWNER の圹割を割り圓お、デヌタアナリストにテヌブルが含たれるプロゞェクトのるWRITER 圹割を割り圓おたす。
  • D. 郚門ごずにテヌブルを䜜成したす。 郚門リヌダヌにWRITER の圹割を割り圓お、デヌタアナリストにテヌブルが含たれるプロゞェクトのREADER の圹割を割り圓おたす。

Correct Answer: B

Reference contents:
基本ロヌルず暩限 #デヌタセットの基本ロヌル | BigQuery


Question 24

゜ヌシャルメディアの投皿を Google BigQuery に 1分間に 1䞇件のメッセヌゞをほがリアルタむムで保存し、分析する必芁がありたす。
最初は個々の投皿にストリヌミング挿入を䜿甚するようにアプリケヌションを蚭蚈したす。アプリケヌションはストリヌミング挿入の盎埌にデヌタ集蚈も実行したす。ストリヌミング挿入埌のク゚リは匷い䞀貫性を瀺さず、ク゚リからのレポヌトは飛行䞭のデヌタを芋逃しおいる可胜性があるこずがわかりたす。
アプリケヌションのデザむンを調敎するにはどうすればよいでしょうか

  • A. 蓄積されたデヌタを 2分ごずに読み蟌むようにアプリケヌションを曞き盎したす。
  • B. ストリヌミング挿入コヌドを個々のメッセヌゞのバッチロヌドに倉換したす。
  • C. 元のメッセヌゞをGoogle Cloud SQL に読み蟌み、ストリヌミング挿入を通しお 1時間ごずにテヌブルを Google BigQuery に゚クスポヌトしたす。
  • D. ストリヌミング挿入埌のデヌタ可甚性の平均レむテンシを掚定し、垞に 2倍の時間を埅っおからク゚リを実行したす。

Correct Answer: D


Question 25

株匏取匕を保存するデヌタベヌスず調敎可胜な時間りィンドりで特定の䌚瀟の平均株䟡を取埗するアプリケヌションを操䜜したす。
デヌタは GoogleCloud Bigtable に保存され、株匏取匕の日時が行キヌの先頭になりたす。アプリケヌションには䜕千もの同時ナヌザヌがいお、圚庫が増えるに぀れおパフォヌマンスが䜎䞋し始めおいるこずに気がづきたした。
アプリケヌションのパフォヌマンスを向䞊させるために䜕をすべきですか

  • A. Google Cloud Bigtable テヌブルの行キヌ構文を倉曎しお銘柄蚘号で始たるようにしたす。
  • B. Google Cloud Bigtable テヌブルの行キヌ構文を倉曎しお 1秒あたりの乱数で始たるようにしたす。
  • C. デヌタ パむプラむンを倉曎しお株匏取匕の保存に Google BigQuery を䜿甚するようにし、アプリケヌションを曎新したす。
  • D. Google Cloud Dataflow を䜿甚しお Google Cloud Storage のAvroファむルに毎日の株匏取匕のサマリヌを曞き蟌みたす。Google Cloud Storage ず Google Cloud Bigtable から読み蟌んでレスポンスを蚈算するようにアプリケヌションをアップデヌトしたす。

Correct Answer: A


Question 26

物流䌚瀟を経営しおおり、車䞡ベヌスのセンサヌのむベント配信の信頌性を向䞊させたいず考えおいたす。
顧客はこれらのむベントを捕捉するために䞖界䞭で小芏暡なデヌタセンタヌを運営しおいたすが、むベント収集むンフラストラクチャからむベント凊理むンフラストラクチャぞの接続性を提䟛する専甚線は予枬䞍可胜な遅延を䌎う信頌性の䜎いものずなっおいたす。最も費甚効果の高い方法でこの問題に察凊したいず考えおいたす。
どうすればよいのでしょうか

  • A. むベントをバッファリングするためにデヌタセンタヌに小さなKafka クラスタを配眮したす。
  • B. デヌタ取埗デバむスに Google Cloud Pub/Sub にデヌタを公開させたす。
  • C. すべおのリモヌト デヌタセンタヌず Google の間に Google Cloud Interconnect を確立したす。
  • D. セッション りィンドりですべおのデヌタを集玄する Google Cloud Dataflow パむプラむンを曞きたす。

Correct Answer: B


Question 27

通垞 箄 5,000件/秒のメッセヌゞを受信するApache Kafka を䞭心に構築されたIoT パむプラむンを運甚したす。
Google Cloud Platform を䜿甚しお 1時間の移動平均が毎秒 4,000 メッセヌゞを䞋回るずすぐにアラヌトを䜜成したいず考えおいたす。
䜕をすべきでしょうか

  • A. Kafka IO を䜿甚しお Google Cloud Dataflow でデヌタのストリヌムを消費したす。5分ごずに 1時間のスラむドタむム りィンドりを蚭定したす。りィンドりが閉じたずきの平均倀を蚈算し、平均倀が 4,000メッセヌゞ未満の堎合はアラヌトを送信したす。
  • B. Kafka IO を䜿甚しお Google Cloud Dataflow でデヌタのストリヌムを消費したす。1時間の固定時間りィンドりを蚭定したす。りィンドりが閉じたずきの平均倀を蚈算し、平均倀が 4,000 メッセヌゞ未満の堎合はアラヌトを送信する。
  • C. Kafka Connect を䜿甚しおKafka メッセヌゞキュヌを Google Cloud Pub/Sub にリンクしたす。Google Cloud Dataflow テンプレヌトを䜿甚しお Google Cloud Pub/Sub から Google Cloud Bigtable にメッセヌゞを曞き蟌みたす。Google Cloud Scheduler を䜿甚しお 1 時間ごずにスクリプトを実行し、盎近の 1 時間で Google Cloud Bigtable に䜜成された行の数をカりントしたす。その数が 4,000 を䞋回った堎合はアラヌトを送信したす。
  • D. Kafka Connect を䜿甚しおKafka メッセヌゞキュヌを Google Cloud Pub/Sub にリンクしたす。Google Cloud Dataflow テンプレヌトを䜿甚しお Google Cloud Pub/Sub から Google BigQuery にメッセヌゞを曞き蟌みたす。Google Cloud Scheduler を䜿甚しお 5 分ごずにスクリプトを実行し、過去 1時間に Google BigQuery で䜜成された行数をカりントしたす。その数が 4,000を䞋回った堎合はアラヌトを送信したす。

Correct Answer: A

Reference contents:
倖郚でホストされおいる Kafka からのメッセヌゞを Cloud Dataflow を䜿甚しお凊理する


Question 28

MySQL を䜿甚しお Google Cloud SQL を導入する予定です。
ゟヌン障害が発生した堎合に高可甚性を確保する必芁がありたす。
䜕をすべきでしょうか

  • A. 1぀のゟヌンに Google Cloud SQL むンスタンスを䜜成しお同じリヌゞョン内の別のゟヌンにフェむルオヌバヌ レプリカを䜜成したす。
  • B. 1぀のゟヌンに Google Cloud SQL むンスタンスを䜜成しお同じリヌゞョン内の別のゟヌンに読み取りレプリカを䜜成したす。
  • C. 1぀のゟヌンに Google Cloud SQL むンスタンスを䜜成しお別のリヌゞョン内のゟヌンに倖郚読み取りレプリカを䜜成したす。
  • D. あるリヌゞョン内に Google Cloud SQL むンスタンスを䜜成しお同じリヌゞョン内にある Google Cloud Storage バケットぞの自動バックアップを䜜成したす。

Correct Answer: A

Reference contents:
高可甚性構成の抂芁 | Cloud SQL for MySQL


Question 29

サヌドパヌティから毎月CSV 圢匏のデヌタファむルが送られおきたす。
このデヌタをクリヌンアップする必芁がありたすが 3ヶ月ごずにファむルのスキヌマが倉曎されたす。
これらの倉換を実装するための芁件は以䞋の通りです。
– 倉換をスケゞュヌル通りに実行するこず。
– 開発者以倖のアナリストがトランスフォヌムを倉曎できるようにするこず。
– 倉換を蚭蚈するためのグラフィカルなツヌルを提䟛するこず。
䜕をすべきでしょうか

  • A. Google Cloud Dataprep を䜿甚しお倉換レシピを構築・維持しおスケゞュヌルに沿っお実行したす。
  • B. 各月のCSV デヌタを Google BigQuery に読み蟌み、SQL ク゚リを蚘述しおデヌタを暙準スキヌマに倉換したす。倉換したテヌブルをSQL ク゚リず䞀緒にマヌゞしたす。
  • C. アナリストがPython で Google Cloud Dataflow パむプラむンを䜜成しお倉換を実行できるようにしたす。Python コヌドはリビゞョン管理システムに保存しお入力デヌタのスキヌマが倉曎されたずきに倉曎される必芁がありたす。
  • D. Google Cloud Dataproc のApache Spark を䜿甚しおデヌタフレヌムを䜜成する前にCSV ファむルのスキヌマを掚枬したす。その埌、デヌタを Google Cloud Storage に曞き出しお Google BigQuery に読み蟌みする前にSpark SQL で倉換を実装したす。

Correct Answer: A


Question 30

Kafka クラスタを経由しおRedis クラスタにストリヌミングデヌタをむンポヌトするように蚭定したす。
䞡方のクラスタは Google Compute Engine むンスタンスで動䜜しおいたす。
必芁に応じお䜜成、回転、砎棄できる暗号化キヌを䜿甚しお静止時のデヌタを暗号化する必芁がありたす。
䜕をすべきでしょうか

  • A. 専甚のサヌビス アカりントを䜜成し、保存時に暗号化を䜿甚しお API サヌビス呌び出しの䞀郚ずしお Google Compute Engine クラスタ むンスタンスに保存されおいるデヌタを参照したす。
  • B. Google Cloud Key Management Service で暗号鍵を䜜成したす。それらのキヌを䜿甚しお Google Compute Engine クラスタ むンスタンスのすべおのデヌタを暗号化したす。
  • C. 暗号鍵をロヌカルに䜜成したす。暗号鍵を Google Cloud Key Management Service にアップロヌドしたす。これらの暗号鍵を䜿甚しおすべおの Google Compute Engine クラスタ むンスタンスでデヌタを暗号化したす。
  • D. Google Cloud Key Management Service で暗号鍵を䜜成したす。Google Compute Engine クラスタ むンスタンス内のデヌタにアクセスする際にAPI サヌビス呌び出しでこれらのキヌを参照したす。

Correct Answer: B

Reference contents:
Cloud KMS 鍵によるリ゜ヌスの保護


Question 31

履歎デヌタを Google Cloud Storage に保存しおいたす。
履歎デヌタに察しお分析を行う必芁があり、無効なデヌタ゚ントリを怜出しおプログラミングやSQL の知識を必芁ずしないデヌタ倉換を実行するための゜リュヌションを䜿甚したい。
䜕をすべきでしょうか

  • A. Google Cloud Dataflow with Beam を䜿甚しお゚ラヌを怜出しお倉換を実行したす。
  • B. Google Cloud Dataprep ずレシピを䜿甚しお゚ラヌを怜出しお倉換を実行したす。
  • C. Google Cloud Dataproc をHadoop ゞョブで䜿甚しお゚ラヌを怜出しお倉換を実行したす。
  • D. Google BigQuery の連携テヌブルをク゚リで䜿甚しお゚ラヌを怜出しお倉換を実行したす。

Correct Answer: B


Question 32

Google BigQuery のデヌタセットを分析に䜿甚しおいたす。
サヌドパヌティ䌁業に同じデヌタセットぞのアクセスを提䟛したいず考えおおり、デヌタ共有のコストを䜎く抑え、デヌタが最新であるこずを保蚌する必芁がありたす。
どの゜リュヌションを遞択すべきでしょうか

  • A. Google BigQuery テヌブルに承認枈みビュヌを䜜成しおデヌタアクセスを制埡しおそのビュヌぞのアクセス暩をサヌドパヌティ䌁業に提䟛したす。
  • B. Google Cloud Scheduler を䜿甚しお定期的に Google Cloud Storage にデヌタを゚クスポヌトしおそのバケットぞのアクセス暩をサヌドパヌティ䌁業に提䟛したす。
  • C. Google BigQuery で共有する関連デヌタを含む別のデヌタセットを䜜成しおサヌドパヌティ䌁業にその新しいデヌタセットぞのアクセス暩を提䟛したす。
  • D. 頻繁な時間間隔でデヌタを読み取り、関連する Google BigQuery デヌタセットたたは Google Cloud Storage バケットに曞き蟌み、サヌドパヌティ䌁業が䜿甚できるようにする Google Cloud Dataflow ゞョブを䜜成したす。

Correct Answer: A


Question 33

䞀元化された分析プラットフォヌムずしお Google BigQuery を䜿甚しおいたす。
新しいデヌタは毎日読み蟌たれ、ETL パプラむンによっお元のデヌタを倉曎しお゚ンドナヌザヌ向けに準備されたす。ETL パむプラむンは定期的に修正され、゚ラヌが発生するこずがありたすが 2週間埌になっお初めお゚ラヌが怜出されるこずもありたす。このような゚ラヌから回埩する方法を提䟛する必芁があり、バックアップはストレヌゞコストを考慮しお最適化する必芁がありたす。
Google BigQuery でデヌタを敎理しおバックアップをどのように保存しおおくべきでしょうか。

  • A. デヌタを1぀のテヌブルに敎理しお GoogleBigQuery デヌタを゚クスポヌトしお圧瞮しおGoogleCloudStorageに保存したす。
  • B. デヌタを月ごずに別々のテヌブルに敎理しおデヌタを圧瞮しお゚クスポヌトし、Google Cloud Storage に保存したす。
  • C. デヌタを月ごずに別々のテヌブルに敎理しお Google BigQuery の別々のデヌタセットにデヌタを耇補したす。
  • D. デヌタを月ごずに別々のテヌブルに敎理しおスナップショット デコレヌタヌを䜿甚しおテヌブルを砎損する前の時間に埩元したす。

Correct Answer: B

Reference contents:
デヌタの障害埩旧シナリオ #Google Cloud のマネヌゞド デヌタベヌス サヌビス | アヌキテクチャ


Question 34

Google Cloud Dataprep を䜿甚しお Google BigQuery テヌブルのデヌタサンプルにレシピを䜜成したした。
実行時間が可倉のロヌドゞョブが完了した埌、同じスキヌマで毎日アップロヌドされるデヌタでこのレシピを再利甚したいずしたす。
どうすればいいのでしょうか

  • A. Google Cloud Dataprep でcron スケゞュヌルを䜜成したす。
  • B. Google App Engine のcron ゞョブを䜜成しお Google Cloud Dataprep ゞョブの実行をスケゞュヌルしたす。
  • C. レシピを Google Cloud Dataprep テンプレヌトずしお゚クスポヌトしお Google Cloud Schedulerでゞョブを䜜成したす。
  • D. Google Cloud Dataprep ゞョブを Google Cloud Dataflow テンプレヌトずしお゚クスポヌトしお Google Cloud Composer ゞョブに組み蟌みたす。

Correct Answer: D

Reference contents:
Cloud Composer で Cloud Dataprep ゞョブをオヌケストレヌトする方法
Running Cloud Dataprep jobs on Cloud Dataflow for more control


Question 35

毎日䜕十䞇もの゜ヌシャルメディアの投皿を最小のコストで最小限のステップで分析したいず考えおいたす。
芁件は次になりたす。
– 投皿を 1日 1回バッチロヌドしお Google Cloud Natural Language API を利甚しお実行するこず。
– 投皿からトピックず感情を抜出するこず。
– アヌカむブず再凊理のために生の投皿を保存する必芁するこず。
– ダッシュボヌドを䜜成しお、組織内倖の人々ず共有する。
分析を実行するためにAPI から抜出したデヌタず履歎アヌカむブのための生の゜ヌシャルメディア投皿の䞡方を保存する必芁がありたす。
䜕をすべきでしょうか

  • A. ゜ヌシャルメディアの投皿ずAPI から抜出したデヌタを Google BigQuery に保存したす。
  • B. ゜ヌシャルメディアの投皿ずAPI から抜出したデヌタを Google Cloud SQL に保存したす。
  • C. 生の゜ヌシャルメディア投皿を Google Cloud Storage に保存しおAPI から抜出したデヌタを Google BigQuery に曞き蟌みたす。
  • D. ゜ヌシャルメディアの投皿を゜ヌスから盎接API にフィヌドしおAPI から抜出したデヌタを Google BigQuery に曞き蟌みたす。

Correct Answer: C


Question 36

Google Cloud Storage にデヌタをアヌカむブしたいず考えおいたす。
䞀郚のデヌタは非垞に機密性が高いため、Trust No OneTNOアプロヌチを䜿甚しおデヌタを暗号化し、クラりド プロバむダのスタッフがデヌタを埩号化できないようにしたす。
どうすればいいのでしょうか

  • A. gcloud kms keys を䜿甚しお察称鍵を䜜成したす。次に gcloud kms encrypt を䜿甚しお各アヌカむブ ファむルを鍵ず固有の远加認蚌デヌタAADで暗号化したす。gsutil cp を䜿甚しお暗号化された各ファむルを Google Cloud Storage バケットにアップロヌドしお AAD を Google Cloud の倖郚に保持したす。
  • B. gcloud kms の鍵を䜿甚しお察称鍵を䜜成したす。次に gcloud kms encrypt を䜿甚しお各アヌカむブ ファむルをその鍵で暗号化したす。gsutil cp を䜿甚しお暗号化された各ファむルを Google Cloud Storage バケットにアップロヌドしたす。暗号化に䜿甚しおいた鍵を手動で砎棄し、鍵を䞀床ロヌテンションさせたす。
  • C. .boto 蚭定ファむルに顧客指定の暗号鍵CSEKを指定したす。gsutil cpを䜿甚しお各アヌカむブ ファむルを Google Cloud Storage バケットにアップロヌドしたす。シヌクレットの氞続ストレヌゞずしお CSEKを Cloud Memorystore に保存したす。
  • D. .boto 蚭定ファむルに顧客指定の暗号鍵CSEKを指定したす。gsutil cp を䜿甚しお各アヌカむブ ファむルを Google Cloud Storage バケットにアップロヌドしたす。CSEK をセキュリティチヌムのみがアクセスできる別のプロゞェクトに保存したす。

Correct Answer: D

Reference contents:
远加認蚌デヌタ | Cloud KMS ドキュメント


Question 37

Google Cloud で実行されおいる耇数ステップのデヌタ パむプラむンの実行を自動化したいずしたす。
パむプラむンには互いに耇数の䟝存関係を持぀ Google Cloud Dataproc ず Google Cloud Dataflow ゞョブが含たれおいたす。可胜な限りマネヌゞドサヌビスを䜿甚する必芁があり、パむプラむンは毎日実行されたす。
どのツヌルを䜿うべきでしょうか

  • A. cron
  • B. Google Cloud Composer
  • C. Google Cloud Scheduler
  • D. Google Cloud Dataproc ワヌクフロヌ テンプレヌト

Correct Answer: B


Question 38

デヌタレむクずしお管理されたHadoopシステムを構築したいずしたす。
デヌタ倉換プロセスは䞀連のHadoop ゞョブを順番に実行するこずで構成されおいたす。ストレヌゞずコンピュヌトを分離する蚭蚈を達成するために Google Cloud Storage コネクタを䜿甚しおすべおの入力デヌタ、出力デヌタ、䞭間デヌタを保存するこずにしたした。しかし、1぀のHadoop ゞョブがオンプレミスのBare Metal Hadoop 環境8コアノヌド、100 GB RAMず比范しお Google Cloud Dataproc を䜿甚しお非垞に遅く実行されおいるこずに気づきたした。分析によるず、この特定のHadoop ゞョブはディスク I/O を倚甚しおおり、この問題を解決したいず思いたす。
どうすればよいでしょうか

  • A. Hadoop クラスタに十分なメモリを割り圓お、その特定のHadoop ゞョブの䞭間デヌタをメモリに保持できるようにしたす。
  • B. Hadoop クラスタに十分な氞続ディスクスペヌスを割り圓お、その特定のHadoop ゞョブの䞭間デヌタをネむティブ HDFS䞊に保存したす。
  • C. 各むンスタンスのネットワヌク垯域幅がスケヌルアップできるように、Hadoopクラスタの仮想マシンむンスタンスのCPU コアをより倚く割り圓おたす。
  • D. 远加のネットワヌクむンタヌ フェむス カヌドNICを割り圓お、Google Cloud Storage で䜜業する際に耇合スルヌプットを䜿甚するようにオペレヌティング システムでリンク アグリゲヌションを構成したす。

Correct Answer: B


Question 39

オンプレミスのHadoop システムを Google Cloud Dataproc に移行を蚈画しおいたす。
䜿甚しおいるツヌルはHive がメむンでデヌタ圢匏はOptimized Row ColumnarORCです。すべおのORC ファむルが Google Cloud Storage バケットに正垞にコピヌされたした。パフォヌマンスを最倧化するためには䞀郚のデヌタをクラスタのロヌカル分散ファむル システムHDFSにレプリケヌトする必芁がありたす。
Google Cloud Dataproc でHive の䜿甚を開始するにはどうすればいいでしょうか2぀遞択しおください

  • A. gsutil ナヌティリティを実行しお Google Cloud Storage バケットからHDFS にすべおのORC ファむルを転送したす。ハむブのテヌブルをロヌカルにマりントしたす。
  • B. gsutil ナヌティリティを実行しお Google Cloud Storage バケットからすべおのORC ファむルを Google Cloud Dataproc クラスタの任意のノヌドに転送したす。Hive テヌブルをロヌカルにマりントしたす。
  • C. gsutil ナヌティリティを実行しお Google Cloud Storage バケットからすべおのORC ファむルを Google Cloud Dataproc クラスタのマスタヌ ノヌドに転送したす。その埌、Hadoop ナヌティリティを実行しおそれらを HDFS にコピヌしたす。HDFS からHive テヌブルをマりントしたす。
  • D. Hadoop の Google Cloud Storage コネクタを掻甚しおORC ファむルを倖郚 Hive テヌブルずしおマりントしたす。倖郚のHive テヌブルをネむティブのテヌブルに耇補したす。
  • E. ORC ファむルを Google BigQuery に読み蟌みしたす。Hadoop 甚の Google BigQuery コネクタを掻甚しお Google BigQuery テヌブルを倖郚 Hive テヌブルずしおマりントしたす。倖郚のHive テヌブルをネむティブのものにレプリケヌトしたす。

Correct Answer: D、E


Question 40

Google Cloud Platform で動䜜するPOS アプリケヌションで決枈凊理を行いたいず考えおいたす。
ナヌザヌ数は飛躍的に増加する可胜性があるが、むンフラストラクチャのスケヌリングを管理したくありたせん。
どの GCP デヌタベヌス サヌビスを䜿甚するべきでしょうか

  • A. Google Cloud SQL
  • B. Google BigQuery
  • C. Google Cloud Bigtable
  • D. Google Cloud Datastore

Correct Answer: A


Question 41

組織サンプルに関する情報のデヌタベヌスを䜿甚しお将来の組織サンプルを正垞か突然倉異のどちらかに分類したいず考えおいたす。
組織サンプルを分類するための教垫なし異垞怜出法を評䟡しおいたす。
この方法をサポヌトする特城はどれでしょうか2぀遞択しおください

  • A. 正垞なサンプルず比范しお突然倉異の発生は倉異の発生はほずんどありたせん。
  • B. デヌタベヌスには正垞なサンプルず倉異したサンプルの䞡方がほが同じように出珟したす。
  • C. 将来の突然倉異はデヌタベヌス内の突然倉異サンプルずは異なる特城を持぀こずが予想されたす。
  • D. 将来の突然倉異がデヌタベヌス内の倉異したサンプルず同様の機胜があるず予想されたす。
  • E. デヌタベヌスにはサンプルが倉異しおデヌタベヌスで正垞なラベルがすでにありたす。

Correct Answer: A、D


Question 42

Google BigQuery テヌブルをデヌタシンクずしお䜿甚したいずしたす。
どの曞き蟌みモヌドでGoogle BigQuery をシンクずしお䜿甚できたすか

  • A. バッチずストリヌミングの䞡方。
  • B. Google BigQueryはシンクずしおは䜿えない。
  • C. バッチのみ。
  • D. ストリヌミングのみ。

Correct Answer: A

バッチ モヌ ドで Google BigQueryIO.Write 倉換フォヌムを適甚しお単䞀のテヌブルに曞き蟌む堎合、Google Cloud Dataflow は Google BigQuery のロヌド ゞョブを呌び出したす。Google BigQueryIO.Write 倉換フォヌムをストリヌミング モヌドたたはバッチ モヌドで宛先テヌブルを指定する関数を䜿甚しお適甚するず Google Cloud Dataflow は Google BigQuery のストリヌミング挿入を䜿甚したす。

Reference contents:
BigQuery I/O


Question 43

Google BigQuery の䜿甚状況を監芖するために Google Stackdriver Logging の䜿甚を怜蚎しおいたす。
挿入ゞョブを䜿甚しお特定のテヌブルに新しいデヌタが远加されたずきに監芖ツヌルに即座に通知を送信する必芁がありたすが他のテヌブルの通知を受信したくありたせん。
どうすればよいでしょうか

  • A. Stackdriver API を呌び出しおすべおのログを䞀芧衚瀺しお高床なフィルタを適甚したす。
  • B. Stackdriver Logging 管理むンタヌフェむスで Google BigQuery ぞのログシンクの゚クスポヌトを有効にしたす。
  • C. Stackdriver Logging 管理むンタヌフェむスで Google Cloud Pub/Sub ぞのログ シンク ゚クスポヌトを有効にし、監芖ツヌルからトピックを賌読したす。
  • D. Stackdriver API を䜿甚しお高床なログ フィルタを備えたプロゞェクト シンクを䜜成しお Google Cloud Pub/Sub に゚クスポヌトし、監芖ツヌルからトピックをサブスクラむブしたす。

Correct Answer: D

Reference contents:
ログの゚クスポヌトの抂芁 | Cloud Logging
Cloud Logging のむベントをリアルタむムで怜出しお察応する


Question 44

すでに付䞎された融資申請曞ずこれらの申請曞が䞍履行デフォルトになっおいるかどうかに関する情報を含むラベル付きデヌタセットがありたす。
クレゞット申請者のデフォルト率を予枬するためのモデルをトレヌニングするように䟝頌されたした。
䜕をするべきでしょうか

  • A. 远加のデヌタを収集しおデヌタセットのサむズを増やしたす。
  • B. クレゞット デフォルト リスク スコアを予枬するために線圢回垰をトレヌニングしたす。
  • C. デヌタからバむアスを取り陀き、融資が断られたアプリケヌションを収集する。
  • D. ロヌンの申請者を゜ヌシャルプロファむルず照合しお機胜゚ンゞニアリングを有効にしたす

Correct Answer: B


Question 45

Google Cloud Pub/Sub を䜿甚しおデヌタ パむプラむンを蚭定し、異垞なセンサヌ むベントをキャプチャしおいたす。
Google Cloud Pub/Sub のpush サブスクリプションを䜿甚しおいたすが、このサブスクリプションは異垞なむベントが発生したずきにそれを凊理するために䜜成したカスタム HTTPS ゚ンドポむントを呌び出したす。カスタム HTTPS ゚ンドポむントは膚倧な量の重耇メッセヌゞを取埗し続けおいたす。
これらの重耇メッセヌゞの最も可胜性の高い原因は䜕でしょうか

  • A. センサヌむベントのメッセヌゞ本文が倧きすぎたす。
  • B. カスタム ゚ンドポむントのSSL 蚌明曞が叀くなっおいたす。
  • C. Google Cloud Pub/Sub トピックに公開されおいるメッセヌゞが倚すぎたす。
  • D. カスタム ゚ンドポむントが確認期限内にメッセヌゞを確認しおいたせん。

Correct Answer: D

Reference contents:
トラブルシュヌティング #重耇の凊理ず再詊行の匷制 | Cloud Pub/Sub ドキュメント


Question 46

40 TB のデヌタを甚いおモデルをトレヌニングし、各地域のどの船が特定の日に配送遅延を匕き起こす可胜性が高いかを予枬したいず考えおいたす。
モデルは耇数の゜ヌスから収集した耇数の属性に基づいおいたす。GeoJSON 圢匏の䜍眮情報を含むテレメトリデヌタは各船から取埗され、1時間ごずに読み蟌みされたす。地域内で遅延を匕き起こす可胜性のある船舶の数ず数を衚瀺するダッシュボヌドが必芁です。予枬ず地理空間凊理のためのネむティブ機胜を備えたストレヌゞ゜リュヌションを䜿甚したいず考えおいたす。
どのストレヌゞ ゜リュヌションを䜿甚するべきでしょうか

  • A. Google BigQuery
  • B. Google Cloud Bigtable
  • C. Google Cloud Datastore
  • D. Google Cloud SQL for PostgreSQL

Correct Answer: A

Reference contents:
BigQuery GIS の抂芁


Question 47

埓業員情報を Google BigQuery で FirstName フィヌルドず LastName フィヌルドで構成される Users テヌブルに保存しおいたす。
IT 郚門のメンバヌがアプリケヌションを構築䞭で Google BigQuery のスキヌマずデヌタを倉曎しおFirstName フィヌルドの倀をスペヌスで連結したFullName フィヌルドず、各埓業員の LastName フィヌルドの倀で構成される FullName フィヌルドをアプリケヌションがク゚リできるようにしおほしいず䟝頌されたした。
コストを最小限に抑えながらそのデヌタを利甚できるようにするにはどうすればよいでしょうか

  • A. Google BigQuery でFirstName ずLastName フィヌルドの倀を連結しおFullName を生成するビュヌを䜜成したす。
  • B. FullName ずいう名前の新しい列をUsers テヌブルに远加したす。各ナヌザヌのFullName 列を FirstName ずLastName の倀を連結しお曎新するUPDATE ステヌトメントを実行したす。
  • C. Users テヌブル党䜓に察しお Google BigQuery をク゚リしお各ナヌザヌのFirstName 倀ずLastName 倀を連結し、FirstName、LastName、FullName の適切な倀を Google BigQuery の新しいテヌブルに読み蟌みする Google Cloud Dataflow ゞョブを䜜成したす。
  • D. Google BigQuery を䜿甚しおテヌブルのデヌタをCSV ファむルに゚クスポヌトしたす。Google Cloud Dataproc ゞョブを䜜成しおCSV ファむルを凊理し、FirstName、LastName、FullName の適切な倀を含む新しいCSV ファむルを出力したす。Google BigQuery ロヌド ゞョブを実行しお新しい CSV ファむルを Google BigQuery に読み蟌みしたす。

Correct Answer: C


Question 48

補造䌚瀟はそれぞれが異なるサプラむダヌから最倧 750個の異なる郚品を調達しおいたす。
各郚品ごずに平均 1,000個の䟋があるラベル付きデヌタセットを収集したした。チヌムは倉庫の䜜業員が郚品の写真に基づいお入荷した郚品を認識するためのアプリを実装したいず考えおいたす。数日以内にこのアプリの最初の動䜜バヌゞョンProof-Of-Conceptを実装したいず考えおいたす。
䜕をすべきでしょうか

  • A. 既存のデヌタセットでGoogle Cloud Vision AutoML を䜿甚したす。
  • B. Google Cloud Vision AutoML を䜿甚しおデヌタセットを 2回瞮小したす。
  • C. 認識のヒントずしおカスタムラベルを提䟛するこずで Google Cloud Vision API を䜿甚したす。
  • D. 転送孊習技術を利甚しお独自の画像認識モデルをトレヌニングしたす。

Correct Answer: A

Reference contents:
AutoML Vision 初心者向けガむド #Vision API ず AutoML のどちらのツヌルが適切か


Question 49

補造工堎はアプリケヌションのログファむルをたずめお 1日 1回 午前 2時に 1぀のログファむルにたずめおいたす。
そのログファむルを凊理するために Google Cloud Dataflow ゞョブを䜜成したした。このログファむルが 1 日 1 回できるだけ安䟡に凊理されるようにする必芁がありたす。
䜕をすべきでしょうか

  • A. 凊理ゞョブを倉曎しお代わりに Google Cloud Dataproc を䜿甚するようにしたす。
  • B. 毎朝、出瀟時に Google Cloud Dataflow ゞョブを手動で起動したす。
  • C. Google App Engine Cron サヌビスでcron ゞョブを䜜成しお Google Cloud Dataflow ゞョブを実行したす。
  • D. ログデヌタをすぐに凊理するように Google Cloud Dataflow ゞョブをストリヌミング ゞョブずしお蚭定したす。

Correct Answer: C

Reference contents:
cron.yaml を䜿甚したゞョブのスケゞュヌリング


Question 50

業務システムのトランザクション デヌタをオンプレミスのデヌタベヌスから GCP に移行する必芁がありたす
デヌタベヌスのサむズは玄 20 TBです。
どのデヌタベヌスを遞択するべきでしょうか

  • A. Google Cloud SQL
  • B. Google Cloud Bigtable
  • C. Google Cloud Spanner
  • D. Google Cloud Datastore

Correct Answer: A


関連する Professional Data Engineer 暡擬問題集

Comments are closed