ホーム > Data Engineering on Google Cloud Platform

Data Engineering on Google Cloud Platform


期間  4日間 時間  9:30~17:30
価格(税込)  352,000円(税込) 主催  トレノケート
コース種別  集合研修  
形式  講義+ハンズオン コースコード  GGC0022V
日程 会場 空席状況 実施状況 選択

2025年1月14日(火) ~ 2025年1月17日(金)

オンラインLive

  空席あり

2025年3月11日(火) ~ 2025年3月14日(金)

オンラインLive

  空席あり

2025年5月27日(火) ~ 2025年5月30日(金)

オンラインLive

  空席あり

※「キャンセル待ち」でお申し込みの方には、別途メールにてご連絡いたします。
※「実施確定」表示のない日程は、お申し込み状況により開催中止になる場合がございます。
※ お申込期日が過ぎた日程は、「お問い合わせください」と表示されます。
※ トレノケート主催コース以外の空席状況は、残席数に関わらず「お申し込み後確認」と表示されます。
※ トレノケート主催コース以外では、主催会社のお席を確保した後に受付確定となります。
お申込みに関するお問い合わせはこちらから

重要なご連絡・ご確認事項

※下記の事前必須手続きが完了していない場合は、ご受講頂けませんのでご注意ください。本手続きが完了しておらず、当日ご受講頂けなかった際は有償キャンセルとなります※

【ご受講前の必須手続き】

ご受講日までに、下記リンクよりプライバシーポリシー及び利用規約にご同意の上、トレーニングシステム「Qwiklabs」のアカウントを作成ください。
Qwiklabsアカウントとコース申込時の受講者メールアドレスは、同一のメールアドレスをご使用ください。

https://trainocate.qwiklabs.com/?locale=ja

自動返信メールにはglobalknowledge-jp.qwiklabs.comからアクセスしてくださいと表示される場合がありますが、同じサイトであるため問題ありません。

既にtrainocate.qwiklabs.comのQwiklabsアカウントをお持ちの方は再作成の必要はございません。


受講証明書発行条件は、全日程の80%以上の出席率または、最低80%以上のラボの完了が必須となりますのでご注意ください


【本コースはオンライン対応です】※一部日程をオンラインで開催しています


会場が「オンラインLive」または「教室Live配信」の日程は、PCやタブレット等を通してオンラインでご参加いただけます。


  • オンラインLive:受講者の方はオンラインのみとなります。
  • 教室Live配信:教室・オンラインから受講される方が混在します。

★オンラインLiveトレーニングの詳細はこちら

対象者情報

対象者
このクラスは、次のようなビッグデータ分析を担当する開発者を対象としています。
・データの抽出、読み込み、変換、クリーニング、検証。
・データ処理のためのパイプラインとアーキテクチャの設計。
・機械学習と統計モデルの作成と維持。
・データセットのクエリ、クエリ結果の視覚化、レポートの作成。
前提条件
このコースを最大限に活用するには、参加者は次の条件を満たしている必要があります。
・Google Cloud Big Data & Machine Learning Fundamentals を受講しているか、同等の経験があること。
・データモデリング、抽出、変換などのSQLエクスペリエンスの基本的な知識。
・Python などの一般的なプログラミング言語を使用した開発知識。

学習内容の詳細

コース概要
この 4 日間のクラスでは、Google Cloud でデータ パイプラインの設計および実践的な構築をハンズオンで学習します。講義、デモ、ハンズオンラボの組み合わせにより、データ処理システムの設計方法、データ パイプラインの構築方法、データの分析方法、およびインサイトの引き出し方を学びます。
Google Cloud でのデータ分析と機械学習について詳細に学ぶことができるコースですが、他の 2 コースに比べ内容はやや難しく、理解するためにはデータ分析や機械学習についての基礎知識が必要です。
基礎知識に自信がなければ、Google Cloud Big Data & Machine Learning Fundamentals もしくは From Data to Insights with Google Cloud を先にご受講されることをお勧めします。
学習目標
● Google Cloud でデータ処理システムを設計して構築する
● BigQuery を使用して非常に大規模なデータセットからビジネスインサイトを引き出す
● Cloud Dataflow で自動スケーリングデータパイプラインを実装し、バッチデータとストリーミングデータを処理する
● Cloud Dataproc を使用して、既存の Hadoop ワークロードをクラウドにリフト&シフトする
● BigQuery ML を使用してさまざまな種類の ML モデルを構築する方法を学ぶ
● 構築済み ML API を使用して非構造化データを活用する方法を学ぶ
● Cloud AutoML を使用してコーディングなしで高度なモデルを作成する方法を学ぶ
学習内容
モジュール1:データエンジニアリングの概要
モジュール2:データレイクの構築
モジュール3:データウェアハウスの構築
モジュール4:バッチデータパイプラインの構築の概要
モジュール5:Dataproc での Spark の実行
モジュール6:Dataflow を使用したサーバーレスデータ処理
モジュール7:Cloud Data Fusion と Cloud Composer を使用したデータパイプラインの管理
モジュール8:ストリーミングデータの処理の概要
モジュール9:Pub / Sub を使用したサーバーレスメッセージング
モジュール10:Dataflow のストリーミング機能
モジュール11:高スループットの BigQuery と Bigtable ストリーミング機能
モジュール12:高度な BigQuery の機能とパフォーマンス
モジュール13:分析と AI:はじめに
モジュール14:非構造化データ用の事前構築済み ML モデル API
モジュール15:Notebooks を使用したビッグデータ分析
モジュール16:Kubeflow を使用した本番環境の ML パイプライン
モジュール17:BigQuery ML で SQL を使用したカスタムモデルの構築
モジュール18:AutoML を使用したカスタムモデルの構築

実習/演習内容詳細

演習/デモ内容
ラボ1:BigQuery を使用したデータの分析
ラボ2:Cloud SQL へのタクシーデータの読み込み
ラボ3:BigQuery へのデータの読み込み
ラボ4:BigQuery での JSON や配列データの操作
ラボ5:Dataproc での Apache Spark ジョブを実行
ラボ6:Cloud Data Fusion でパイプライングラフを作成して実行する
ラボ7:Cloud Composerの概要
ラボ8:シンプルな Dataflow パイプライン(Python / Java)
ラボ9:Beam での MapReduce(Python / Java)
ラボ10:副入力(Python / Java)
ラボ11:Pub/Sub へのストリーミングデータのパブリッシュ
ラボ12:ストリーミングデータ パイプライン
ラボ13:ストリーミング分析とダッシュボード
ラボ14:Bigtable へのストリーミングデータパイプライン
ラボ15:BigQuery クエリを最適化してパフォーマンスを高める
ラボ(オプション):BigQuery のパーティション分割テーブル
ラボ16:Natural Language API を使用した非構造化テキストの分類
ラボ17:Vertex AIの JupyterLab で BigQuery を利用する
ラボ18:Kubeflow での ML パイプラインの実行
ラボ(オプション):BQML の回帰モデルを使用した自転車レンタル時間の予測
ラボ(オプション):BigQuery ML を使用した映画のレコメンデーション

ご注意・ご連絡事項

※事前必須手続きが完了していない場合は、ご受講頂けませんのでご注意ください。本手続きが完了しておらず、当日ご受講頂けなかった際は有償キャンセルとなります。
【事前必須手続き】
リンクよりトレーニングシステム「Qwiklab」アカウントの作成ください。
申込時Qwiklabアカウントのメールアドレスを受講者様メールアドレスに記載ください。
※受講証明書発行条件は、全日程の80%以上の出席率または、最低80%以上のラボの完了が必須となりますのでご注意ください。

おすすめのコースフロー図を見る