[GCP] Google Cloud Certified:Professional Cloud Architect

Google Cloud 公式の模擬試験です。


Google Cloud 認定資格 – Professional Cloud Architect – 公式模擬試験(全 17問)


Question 1

TerramEarth が収集するデータの用途をすべて把握することはできないため、後で必要になる場合に備えて、すべての未加工データを取得して保存するシステムを構築することにしました。
この目標を実現する最もコスト効率の良い方法は、次のうちどれですか。

  • A. 現場の車両からデータを直接 Google BigQuery にストリーミングする。
  • B. 現場の車両からデータを Google Cloud Pub / Sub に送信して Google Cloud Dataproc クラスタへデータをダンプし、永続ディスク上の Apache Hadoop 分散ファイル システム(HDFS)にデータを保存する。
  • C. 現場の車両で引き続き FTP 経由でデータをダンプして、既存の Linux マシンを調整し、コレクターを使用して Google Cloud Dataproc HDFS にデータをアップロードして保存する。
  • D. 現場の車両で引き続き FTP 経由でデータをダンプして、既存の Linux マシンを調整し、gsutil でデータを Google Cloud Storage に即時アップロードする。

A は不正解です。メモリ容量を増やすには VM の再起動が必要です。
B は不正解です。DB 管理チームが求めているのは、MySQL インスタンスに対するサポートです。他の最適化技法を適用できる場合に、別のプロダクトへの移行で問題解決を図るべきではありません。
C が正解です。永続ディスクのパフォーマンスは、インスタンスに接続している永続ディスクの総容量と、そのインスタンスが保持している vCPU の数に基づきます。永続ディスクの容量を増やすことでスループットと IOPS が向上し、MySQL のパフォーマンスが改善します。
D は不正解です。DB 管理チームが求めているのは、MySQL インスタンスに対するサポートです。他の最適化技法を適用できる場合に、別のプロダクトへの移行で問題解決を図るべきではありません。

Correct Answer: D

Reference contents:
外部データソースの概要 | BigQuery | Google Cloud
時系列データ用のスキーマ設計 | Cloud Bigtable ドキュメント | Google Cloud


Question 2

現在、TerramEarth のメンテナンス担当者は、メンテナンス用のタブレットを車両に接続して、過去 24 時間(86,400 イベント)のインタラクティブなパフォーマンス グラフを受信しています。
サポート グループは、サポート担当の技術者がこのデータをリモートで確認できるようにして、トラブルシューティングに役立てたいと考えています。
グラフ読み込みのレイテンシを最小限に抑えるには、どのような方法でこの機能を提供すればよいでしょうか。

  • A. Google Cloud SQL に保存されているデータに対してクエリを実行する。
  • B. Google Cloud Bigtable に車両 ID とタイムスタンプによりインデックス登録されているデータに対してクエリを実行する。
  • C. 日付別に分割されている Google BigQuery テーブルに保存されているデータに対してクエリを実行する。
  • D. Google BigQuery フェデレーション経由で Google Cloud Storage に保存されているデータを使用して Googe BigQuery に対してクエリを実行する。

A は不正解です。Google Cloud SQL はリレーショナル データベース サービスを提供するため OLTP ワークロードには適していますが、時系列データの保存と低レイテンシでの取得には適していません。
B が正解です。Google Cloud Bigtable は時系列データ用に最適化されています。Google Cloud Bigtable はコスト効率と可用性に優れた、低レイテンシでスケーラブルなデータベースです。その上マネージド サービスなので、稼働を継続するのに大々的な運用作業は必要ありません。
C は不正解です。Google BigQuery は広い範囲のクエリには迅速に対応できますが、狭い範囲のクエリを実行するには Google Cloud Bigtable の方が適しています。このような場合、Google Cloud Bigtable を使用すればレイテンシを劇的に短縮できます。
D は不正解です。目的はレイテンシの最小化です。Google BigQuery フェデレーションを使えば高い柔軟性を得られますが、ネイティブの Google BigQuery ストレージほどのパフォーマンスは期待できません。[2] また、狭い範囲のクエリに対しては Cloud Bigtable よりもレイテンシが増大します。

Correct Answer: B

Reference contents:
外部データソースの概要 | BigQuery | Google Cloud
時系列データ用のスキーマ設計 | Cloud Bigtable ドキュメント | Google Cloud


Question 3

農業部門が試験を行っている完全自律走行車について、車両走行中の高い安全性を推進するアーキテクチャを採用したいと考えています。
考慮すべきアーキテクチャの 2 つの特徴とは、次のうちどれですか。

  • A. multi-select 冗長性を確保するために、多重接続サブシステムを使用する。
  • B. 安全なアドレス空間を確保するために、IPv6 接続を必須とする。
  • C. チップを分離するために、車両の駆動回路をファラデー ケージに収納する。
  • D. コード実行サイクルを分離するために、関数型プログラミング言語を使用する。
  • E. 車両のモジュール間の各マイクロサービス呼び出しを信頼できない呼び出しとして扱う。
  • F. Trusted Platform Module(TPM)を使用し、起動時にファームウェアとバイナリを検証する。

Correct Answer: E、F

A は不正解です。この方法はシステムの耐久性を改善はしますが、車両走行中の安全性は促進されません。
B は不正解です。IPv6 ではシステムのスケーラビリティの向上と簡略化を図ることができますが、車両走行中の安全性は促進されません。
C は不正解です。この方法はシステムの耐久性を改善はしますが、車両走行中の安全性は促進されません。
D は不正解です。単に関数型プログラミング言語を使用しても、より安全なレベルの実行分離は保証されません。この選択により安全性が改善したとしても、偶発的なものにすぎません。
E は正解です。この方法では、モジュール間の中間者攻撃などによるハッキングへの耐性を高めることができるため、システムのセキュリティが向上します。
F は正解です。この方法では、悪意のある人物によるルートキットやその他の種類の改ざんなどのハッキングへの耐性を高めることができるため、システムのセキュリティが向上します。

Reference contents:
Trusted Platform Module – Wikipedia


Question 4

TerramEarth の従来の企業プロセスのうち、Google Cloud Platform の導入拡大によって大きく変更されるのは、次のうちどれでしょうか。

  • A. multiple-choice OpEx / CapEx 配分、LAN 変更管理、容量計画
  • B. 容量計画、TCO 計算、OpEx / CapEx 配分
  • C. 容量計画、使用率測定、データセンターの拡張
  • D. データセンターの拡張、TCO 計算、使用率測定

Correct Answer: B


Question 5

ダウンタイムを減らすために TerramEarth のビジネス要件を分析したところ、お客様の部品待ち時間を減らすことで、時間短縮の大半を達成できることがわかりました。
そこで、3 週間の集計レポート生成時間の短縮に専念することにしました。この場合、どのような企業プロセスの変更をおすすめしますか。

  • A. CSV 形式からバイナリ形式への移行、FTP 転送から SFTP 転送への移行、機械学習による指標分析の開発。
  • B. FTP 転送からストリーミング転送への移行、CSV 形式からバイナリ形式への移行、機械学習による指標分析の開発。
  • C. 運用車両の携帯電話回線への接続率を 80% に増加、FTP 転送からストリーミング転送への移行、機械学習による指標分析の開発。
  • D. FTP 転送から SFTP 転送への移行、機械学習による指標分析の開発、確定要因によるディーラーのローカル在庫の増加。

Correct Answer: C

A は不正解です。機械学習による分析はダウンタイム短縮のための良い手段ですが、形式や転送の移行は直接的には役立ちません。
B は不正解です。機械学習による分析はダウンタイム短縮のための良い手段であり、ストリーミングに移行することでこの分析に使用する情報の鮮度を向上させることができますが、形式の変更は直接的には役立ちません。
C が正解です。携帯電話回線に接続することで、マシンがメンテナンスに入っているときに収集される現在のデータよりも、分析に使用するデータの鮮度が大幅に向上します。定期的な FTP 転送の代わりにストリーミング転送を使用すると、rationale ループをさらに短縮できます。機械学習はメンテナンス ワークロードの予測に理想的です。
D は不正解です。機械学習による分析はダウンタイム短縮のための良い手段ですが、その他の変更は直接的には役立ちません。


Question 6

あなたの会社では、いくつかのマイクロサービスを導入して、変動する負荷を自社システムで処理することを検討しています。
各マイクロサービスで使用されるソフトウェア ライブラリのバージョンは異なります。
あなたは、開発者が開発環境とさまざまな本番環境サービスとの間で同期を保てるようにしたいと考えています。 どの技術を選択すればよいですか。

  • A. RPM/DEB
  • B. コンテナ
  • C. Chef/Puppet
  • D. 仮想マシン

Correct Answer: B

A は不正解です。OS パッケージはライブラリを配布、展開するのに便利な方法ですが、同期には直接的には役立ちません。共通リポジトリがあっても、開発環境はおそらく本番環境とは異なります。
B が正解です。開発、テスト、本番環境でのデプロイにコンテナを使用するとシステム OS 環境が抽象化され、単一のホスト OS イメージをすべての環境で使用できるようになります。開発中に行われた変更はコピーオンライト ファイルシステムを使用して記録され、チームは簡単に新しいバージョンのマイクロサービスをリポジトリに公開できます。
C は不正解です。コードとしてのインフラストラクチャ構成は本番環境とテスト環境を統合するのに役立ちますが、この方法で開発中にすべての変更を加えることは非常に困難です。
D は不正解です。仮想マシンは独自の OS を実行するため、最終的には現在と同様に環境間で相違が生じます。


Question 7

あなたの会社では、会議用に予約されている会議室に誰かがいるかどうかを追跡することを検討しています。
3 つの大陸にある 5 つのオフィスには会議室が 1,000 室あり、各会議室に室内の状況を毎秒レポートするモーション センサーが設置されています。あなたは、このセンサー ネットワークで必要なデータのアップロードと収集を行えるようにしたいと考えています。受信インフラストラクチャについては、デバイスの接続性が一貫していない可能性を考慮する必要があります。
この場合、次のどのソリューションを設計しますか。

  • A. 各デバイスを Google Compute Engine インスタンスに永続的に接続させ、カスタム アプリケーションにメッセージを書き込ませる。
  • B. デバイスに Google Cloud SQL への接続をポーリングさせ、デバイス固有のテーブルに最新メッセージを定期的に挿入させる。
  • C. デバイスに Google Cloud Pub/Sub への接続をポーリングさせ、すべてのデバイスの共有トピックに最新メッセージを定期的に公開させる。
  • D. 各デバイスを Google Cloud Endpoints が前面にある Google App Engine アプリケーションに永続的に接続させ、メッセージを取り込んで Google Cloud Datastore に書き込む。

Correct Answer: C

A は不正解です。永続的な接続があっても、デバイスの接続が解除されている場合に対応できません。
B は不正解です。Google Cloud SQL はリージョンのリレーショナル データベースであり、センサーデータには適していません。さらに、書き込み頻度がサポートされている同時接続数を超過する可能性があります。
C が正解です。Google Cloud Pub/Sub はこのデータの頻度に対応できます。データ利用者は共有トピックからデータを pull してさらに処理を行えます。
D は不正解です。永続的な接続があっても、デバイスの接続が解除されている場合に対応できません。

Reference contents:
Cloud SQL for PostgreSQL、Cloud SQL for MySQL、Cloud SQL for SQL Server
Cloud Pub/Sub | Google Cloud


Question 8

あなたの会社は、クラウドを低リスクで試用したいと考えています。
約 100 TB のログデータをクラウドにアーカイブして、利用可能な分析機能をアーカイブ データでテストし、さらにそのデータを長期の障害復旧バックアップとして保持することが目的です。
必要な手順を 2 つ選択してください。

  • A. Google BigQuery にログを読み込む。
  • B. Google Cloud SQL にログを読み込む。
  • C. Stackdriver にログをインポートする。
  • D. Google Cloud Bigtable にログを挿入する。
  • E. Google Cloud Storage にログファイルをアップロードする

Correct Answer: A、F

A は正解です。BigQuery は分析用のサーバーレス ウェアハウスで、ボリュームおよび分析要件に対応しています。
B は不正解です。Google Cloud SQL は予測される 100 TB に対応していません。さらに Google Cloud SQL はリレーショナル データベースであるため、時系列のログデータ形式には適しません。
C は不正解です。Google Cloud Logging はモニタリング、エラー報告、デバッグ用に最適化されており、分析クエリには適しません。
E は不正解です。Google Cloud Bigtable は読み書きのレイテンシや解析スループット用に最適化されており、分析クエリやレポートには適しません。
F は正解です。Google Cloud Storage ではアクセス頻度の低いデータの長期保存に対応する Coldline Storage クラスおよび Archive Storage クラスを提供しているため、長期の障害復旧バックアップ要件に対応できます。

Rerence contents:
ストレージ クラス #Coldline Storage | Cloud Storage | Google Cloud
Cloud Bigtable: NoSQL データベース サービス | Google Cloud
運用: Cloud Monitoring と Logging | Google Cloud
Cloud SQL for PostgreSQL、Cloud SQL for MySQL、Cloud SQL for SQL Server
BigQuery: クラウド データ ウェアハウス | Google Cloud


Question 9

来たるリリースに向けて、ウェブ トラフィックを処理する自動スケーリング インスタンス グループを設定しています。
インスタンス グループを HTTP(S) ロードバランサへのバックエンド サービスとして構成した後で、仮想マシン(VM)インスタンスが終了と再起動を 1 分おきに行っていることに気付きました。インスタンスには、パブリック IP アドレスがありません。curl コマンドを使用して、各インスタンスから適切なウェブ応答が送信されていることを確認しましたが、バックエンドが正しく構成されていることを確認したいと考えています。
どうすればよいですか。

  • A. HTTP / HTTPS の送信元トラフィックがロードバランサに到達できるように構成されたファイアウォール ルールがあることを確認する。
  • B. 各インスタンスにパブリック IP を割り当て、ロードバランサがインスタンスのパブリック IP に到達できるようにファイアウォール ルールを構成する。
  • C. ロードバランサのヘルスチェックがインスタンス グループ内のインスタンスに到達できるように構成されたファイアウォール ルールがあることを確認する。
  • D. 各インスタンスに、ロードバランサの名前でタグを作成する。ロードバランサの名前を送信元、インスタンス タグを送信先として、ファイアウォール ルールを構成する。

Correct Answer: C

B は不正解です。この方法では VM の終了という最優先の問題を解決できず、セキュリティ上の脆弱性が発生します。
C が正解です。ヘルスチェックが失敗すると VM に異常があるとマークされ、ヘルスチェックの失敗が続くと VM が終了する可能性があります。インスタンスが正しく機能していることは確認済みなので、次の手順はヘルスチェックの失敗が続いている理由を突き止めることです。
D は不正解です。ロードバランサおよびヘルスチェックによるインスタンスへのアクセスを許可するファイアウォール ルールの送信元は、定義された IP 範囲であり、名前付きロードバランサではありません。ファイアウォール ルールの目的でインスタンスにタグを付けることは適切ですが、タグはおそらくアプリケーションの記述子であり、ロードバランサではありません。

Rerence contents:
外部 HTTP(S) 負荷分散の概要 | Google Cloud
ヘルスチェックの概要 | 負荷分散 | Google Cloud


Question 10

あなたの組織には、Google Cloud Platform の同じネットワークにデプロイされた 3 階層ウェブ アプリケーションがあります。
各階層(ウェブ、API、データベース)は、他の階層とは独立してスケールします。ネットワーク トラフィックはウェブを介して API 層に流れてからデータベース層に流れるようにし、さらに、ウェブとデータベース層の間にはトラフィックが流れないようにする必要があります。
この場合、どのようにネットワークを構成すればよいですか。

  • A. 各階層を異なるサブネットワークに追加する。
  • B. 個別の VM にソフトウェアベースのファイアウォールを設定する。
  • C. 各階層にタグを追加し、目的のトラフィック フローを許可するようにルートを設定する。
  • D. 各階層にタグを追加し、目的のトラフィック フローを許可するようにファイアウォール ルールを設定する。

Correct Answer: D

A は不正解です。ファイアウォール ルールを設定せず、サブネットワークだけでトラフィックを必要に応じて許可したり制限したりすることはできません。
B は不正解です。この方法ではアーキテクチャとインスタンス構成が複雑になります。
C は不正解です。ルートには、引き続きリクエストとしてトラフィックを許可するためのファイアウォール ルールが必要です。さらにタグは、ルートが適用されるインスタンスの定義に使用され、ネクストホップの識別には使用されません。ネクストホップは IP 範囲またはインスタンス名ですが、提案されているソリューションでは階層はタグによってのみ識別されます。
D が正解です。インスタンスがスケールするにつれて、すべてのインスタンスが、階層を識別する同じタグを持つことになります。タグはターゲットとソースの両方に使用できるので、必要に応じてトラフィックの許可や制限を行うファイアウォール ルールにこれらのタグを利用できます。

Rerence contents:
VPC ネットワークの使用 | Google Cloud
ルートの概要 | VPC | Google Cloud
ネットワーク タグの構成 | VPC | Google Cloud


Question 11

あなたは、30 のマイクロサービスで構成される大規模な分散アプリケーションを設計しています。
分散マイクロサービスはそれぞれデータベース バックエンドに接続する必要があり、認証情報を安全に保存したいと考えています。
どこに認証情報を保存すればよいですか。

  • A. ソースコード内
  • B. 環境変数内
  • C. 鍵管理システム内
  • D. ACL によってアクセスが制限された構成ファイル内

Correct Answer: C

A は不正解です。ソースコードとソース管理に認証情報を保存すると、ソースコードへのアクセス権を持つ人なら誰でも書式なしテキストで認証情報を検出できてしまいます。また、認証情報がローテーションされるたびにコードを更新してデプロイする必要があります。
B は不正解です。常に環境変数を追加できるようにするには、セッションの開始時に、認証情報が書式なしテキストで利用可能である必要があります。
C が正解です。鍵管理システムは暗号鍵の生成、使用、ローテーション、暗号化、破棄を実行し、これらの鍵に対する権限を管理します。
D は不正解です。構成ファイルへのアクセスを管理してキーがローテーションされたときに手動で更新する代わりに、鍵管理システムを利用することをおすすめします。また、構成ファイルに認証情報が書式なしテキストで含まれているとリスクが高まります。

Rerence contents:
Secret | Kubernetes Engine ドキュメント | Google Cloud
Secret Manager | Google Cloud


Question 12

Mountkirk Games は新作ゲーム用にリアルタイム分析プラットフォームを構築したいと考えています。
新しいプラットフォームは同社の技術的要件を満たす必要があります。
要件をすべて満たすことのできる Google テクノロジーの組み合わせはどれですか。

  • A. Google Kubernetes Engine、Google Cloud Pub/Sub、Google Cloud SQL
  • B. Google Cloud Dataflow、Google Cloud Storage、Google Cloud Pub/Sub、Google BigQuery
  • C. Google Cloud SQL、Google Cloud Storage、Google Cloud Pub/Sub、Google Cloud Dataflow
  • D. Google Cloud Pub/Sub、Google Compute Engine、Google Cloud Storage、Google Cloud Dataproc

Correct Answer: B

A は不正解です。挙げられている中でストレージは Google Cloud SQL のみですが Google Cloud SQL のストレージ容量は 10 TB に制限されています。また、Googel Cloud SQL はトランザクション ワークロードに適しています。Mountkirk Games は 30,720 GB 以上の過去のデータに対してクエリを実行し、分析する必要があります。
B が正解です。
– Google Cloud Dataflow は動的にスケールアップまたはスケールダウンし、リアルタイムでのデータ処理が可能です。Beam のウィンドウとトリガーを使用して遅延データを処理するのに適しています。
– Google Cloud Storage はユーザーのモバイル デバイスから定期的にアップロードされるファイルのランディング スペースとして利用できます。
– Google Cloud Pub/Sub は、モバイル ユーザーからのストリーミング データを取り込めます。
Google BigQuery は 10 TB 以上の過去のデータに対してクエリを実行できます。
C は不正解です。挙げられている中でストレージは Google Cloud SQL のみですが、Google Cloud SQL のストレージ容量は 30,720 GB に制限されています。また、Google Cloud SQL はトランザクション ワークロードに適しています。Mountkirk Games は 10 TB 以上の過去のデータに対してクエリを実行し、分析する必要があります。
D は不正解です。Google Cloud SQL のストレージ容量は 30,720 GB に制限されています。また、Google Cloud SQL はトランザクション ワークロードに適しています。Mountkirk Games は 10 TB 以上の過去のデータに対してクエリを実行し、分析する必要があります。
E は不正解です。Mountkirk Games は過去のデータに対してクエリを実行する必要があります。Google Cloud Storage 向けの Google BigQuery 連携クエリや Google Cloud Dataproc 向けの Hive クエリなどの回避策を活用すれば可能かもしれませんが、こうしたアプローチは複雑です。よりシンプルで柔軟なプロダクトである Google BigQuery を使えば、前述の要件を満たすことができます。

Rerence contents:
上限割り当てと上限 #引き上げることができない | Cloud SQL ドキュメント | Google Cloud
Beam Programming Guide #Windowing
外部データソースの概要 | BigQuery | Google Cloud
Dataproc での Apache Hive の使用 | Cloud アーキテクチャ センター | Google Cloud


Question 13

Mountkirk Games は、新しいバックエンドを Google Cloud Platform(GCP)にデプロイしました。
バックエンドの新バージョンが公開される前に、綿密なテストプロセスを作成したいと考えています。
コスト効率の良い方法でテスト環境をスケールするには、どのようにプロセスを設計すればよいですか。

  • A. GCP でスケーラブルな環境を作成して、本番環境の負荷をシミュレーションする。
  • B. 既存のインフラストラクチャを使用して、GCP ベースの大規模なバックエンド テストを実行する。
  • C. アプリケーションの各コンポーネントにストレステストを組み込み、すでにデプロイされている本番環境のバックエンドのリソースを使用して負荷をシミュレーションする。
  • D. GCP で一連の静的環境を作成し、異なるレベル(例: 高、中、低)の負荷をテストする。

Correct Answer: A

A が正解です。Google Cloud で本番環境の負荷をシミュレーションすることで、コスト効率良くスケールできます。
B は不正解です。既存のインフラストラクチャに関する問題の 1 つは、環境をスムーズにスケールできないことです。
C は不正解です。テスト環境と本番環境は明確に区別することをおすすめしており、テスト負荷の生成は本番環境で行うべきではありません。
D は不正解です。Mountkirk Games はテスト環境を必要に応じてスケールしたいと考えています。特定の負荷レベルに合わせて複数の静的環境を設定することは、こうした要件に反します。

Rerence contents:
Load-testing an IoT application using Google Cloud and Locust
GitHub – GoogleCloudPlatform/distributed-load-testing-using-kubernetes: Distributed load testing using Kubernetes on Google Container Engine


Question 14

Mountkirk Games は、継続的デリバリー パイプライン を設定したいと考えています。
同社のアーキテクチャには多数の小規模なサービスが含まれており、これらサービスの迅速な更新とロールバックを行うことを希望しています。Mountkirk Games には次の要件があります。 – サービスは、アメリカとヨーロッパの複数のリージョンにわたり重複してデプロイされています。 – 公共インターネット上にはフロントエンド サービスのみが公開されています。 – 同社は、各種サービス用に単一のフロントエンド IP を予約できます。 – デプロイメント アーキテクチャは不変です。
使用すると良いプロダクトの組み合わせはどれですか?

  • A. Google Cloud Storage、Google Cloud Dataflow、Google Compute Engine
  • B. Google Cloud Storage、Google App Engine、Google Cloud Load Balancing
  • C. Google Container Registry、Google Kubernetes Engine、Google Cloud Load Balancing
  • D. Google Cloud Functions、Google Cloud Pub/Sub、Google Cloud Deployment Manager

Correct Answer: C

A は不正解です。Mountkirk Games が設定したいのは継続的デリバリー パイプラインで、データ処理パイプラインではありません。Google Cloud Dataflow はデータ処理パイプライン作成のためのフルマネージド サービスです。
B は不正解です。Google Cloud ロードバランサはトラフィックを Google Compute Engine インスタンスに分配します。Google App Engine と Google Cloud ロードバランサは異なるソリューションの一部です。
C が正解です。
– Google Kubernetes Engine は、迅速に更新とロールバックを行える小規模サービスのデプロイに適しています。不変のコンテナを使用してサービスを管理することをおすすめします。
– Google Cloud Load Balancing は世界の複数のリージョンにわたり分散されたサービスに対応しており、DNS レコードで使用できる単一のグローバル IP アドレスを提供します。URL マップを使用して、リクエストを Mountkirk が公開したいサービスのみにルーティングすることが可能です。
– Google Container Registry では、サービスの Docker イメージを一元的に管理できます。
D は不正解です。Google Cloud Functions 用に単一のフロントエンド IP を予約することはできません。デプロイされると、HTTP でトリガーされる Google Cloud Functions の関数が自動的に割り当てられた IP でエンドポイントを作成します。

Rerence contents:
上限割り当てと上限 #引き上げることができない | Cloud SQL ドキュメント | Google Cloud
Beam Programming Guide #Windowing
外部データソースの概要 | BigQuery | Google Cloud
Dataproc での Apache Hive の使用 | Cloud アーキテクチャ センター | Google Cloud
Beam Programming Guide #9. Triggers


Question 15

お客様が、会社のアプリケーションを Google Cloud Platform に移行しています。
セキュリティ チームは、組織内のすべてのリソースを詳細に把握する必要があります。あなたは Resource Manager を使って自分を組織管理者に設定しています。
セキュリティ チームには、どのような Google Cloud Identity and Access Management(Google Cloud IAM)の役割を付与する必要がありますか。

  • A. 組織閲覧者、プロジェクト オーナー
  • B. 組織閲覧者、プロジェクト閲覧者
  • C. 組織管理者、プロジェクト参照者
  • D. プロジェクト オーナー、ネットワーク管理者

Correct Answer: B

A は不正解です。プロジェクト オーナーは権限の範囲が広すぎます。セキュリティ チームには、プロジェクトに変更を加える権限は必要ありません。
B が正解です。
– 組織閲覧者は、セキュリティ チームに組織の表示名を閲覧する権限を付与します。
– プロジェクト閲覧者は、セキュリティ チームにプロジェクト内のリソースを閲覧する権限を付与します。
C は不正解です。組織管理者は権限の範囲が広すぎます。セキュリティ チームには、組織に変更を加える権限は必要ありません。
D は不正解です。プロジェクト オーナーは権限の範囲が広すぎます。セキュリティ チームには、プロジェクトに変更を加える権限は必要ありません。

Rerence contents:
IAM を使用した組織のアクセス制御 #事前定義済みの役割の使用 | Resource Manager のドキュメント | Google Cloud


Question 16

コスト削減のため、エンジニアリング ディレクターがすべての開発者に対して、各自の開発インフラストラクチャ リソースをオンプレミスの仮想マシン(VM)から Google Cloud Platform へ移動するよう要請しました。
これらのリソースでは一日のうちに複数の起動または停止イベントが行われ、状態を保持する必要があります。あなたは、財務部門がコストを把握できるようにしながら、Google Cloud で開発環境を実行するプロセスを設計するよう依頼されています。
実行すべき 2 つの手順は次のうちどれですか。

  • A. 永続ディスクを使用して状態を保存する。必要に応じて VM の起動と停止を行う。
  • B. VM を停止する前に、すべての永続ディスクで自動削除フラグを使用する。
  • C. VM CPU 使用率ラベルを適用し、Google BigQuery 課金データのエクスポートにラベルを含める。
  • D. Google BigQuery 課金データのエクスポートとラベルを使用し、コストをグループに関連づける。
  • E. すべての状態をローカル SSD に保存し、永続ディスクをスナップショットして VM を終了する。
  • F. すべての状態を Google Cloud Storage に保存し、永続ディスクをスナップショットして VM を終了する。

Correct Answer: A、D

A は正解です。インスタンスが停止しても永続ディスクは削除されません。
B は不正解です。インスタンスが削除されない限り、自動削除フラグは何の効力も持ちません。インスタンスを停止しても、インスタンスおよび接続されている永続ディスクは削除されません。
C は不正解です。ラベルを使用するのはインスタンスを整理するためで、指標をモニタリングするためではありません。
D は正解です。一日を通してその日の使用量とコストの見積もりを自動的に Google BigQuery データセットにエクスポートすることで、財務部門はコストの状況を把握できます。ラベルはこの後、チームまたはコストセンターに基づいたコストの分類に利用できます。
F は不正解です。ローカル SSD に保存された状態は、インスタンスの停止時に失われます。

Rerence contents:
VM インスタンスのライフサイクル | Compute Engine ドキュメント | Google Cloud
gcloud compute instances set-disk-auto-delete #–auto-delete | Cloud SDK のドキュメント
– gcloud compute instances create #–disk | Cloud SDK のドキュメント | Google Cloud

ローカル SSD の追加 #ローカル SSD データの永続性 | Compute Engine ドキュメント | Google Cloud
Cloud Billing データを BigQuery にエクスポートする | Google Cloud
ラベルの作成と管理 | Resource Manager のドキュメント | Google Cloud


Question 17

データベース管理チームより、Google Compute Engine 上で稼働している新しいデータベース サーバーのパフォーマンス向上をサポートしてほしいと依頼されました。
このデータベースは、会社のパフォーマンス統計をインポートおよび正規化するために使用されており、Debian Linux 上で実行されている MySQL で構築されています。マシンは、80 GB の SSD ゾーン永続ディスクを備えた n1-standard-8 仮想マシンです。
コスト効率の高い方法でこのシステムのパフォーマンスを向上させるには、何を変更すればよいですか。

  • A. 仮想マシンのメモリを 64 GB に増やす。
  • B. PostgreSQL を実行する新しい仮想マシンを作成する。
  • C. SSD 永続ディスクのサイズを 500 GB に動的に変更する。
  • D. パフォーマンス指標のウェアハウスを Google BigQuery に移行する。

Correct Answer: C

A は不正解です。メモリ容量を増やすには VM の再起動が必要です。
B は不正解です。DB 管理チームが求めているのは、MySQL インスタンスに対するサポートです。他の最適化技法を適用できる場合に、別のプロダクトへの移行で問題解決を図るべきではありません。
C が正解です。永続ディスクのパフォーマンスは、インスタンスに接続している永続ディスクの総容量と、そのインスタンスが保持している vCPU の数に基づきます。永続ディスクの容量を増やすことでスループットと IOPS が向上し、MySQL のパフォーマンスが改善します。
D は不正解です。DB 管理チームが求めているのは、MySQL インスタンスに対するサポートです。他の最適化技法を適用できる場合に、別のプロダクトへの移行で問題解決を図るべきではありません。

Rerence contents:
ストレージ オプション #永続ディスク | Compute Engine ドキュメント | Google Cloud
ブロック ストレージのパフォーマンス | Compute Engine ドキュメント | Google Cloud

Comments are closed