バーチャルコース:エドゥレカ |
Edureka Apache Kafka認定トレーニングは、Kafkaアーキテクチャ、Kafkaクラスター構成、Kafkaプロデューサー、Kafkaコンシューマー、Kafkaモニタリングに関する概念を学習するのに役立ちます。
Apache Kafka認定トレーニングは、Kafkaとの統合に関する情報を提供するように設計されています
Hadoop、Storm、Spark、Kafka Stream APIを理解し、KafkaでTwitterストリーミングを実装します。
実際のケーススタディを紹介します。
コースについて
Apache Kafka認定トレーニングは、Kafkaビッグデータ開発者として成功するための知識とスキルを提供することを目的としています。 トレーニングでは、基本的なKafkaの概念(KafkaClusterやKafkaAPIなど)と高度なトピック(Kafka Connect、Kafkaストリーム、Kafka Integration with Hadoop、Storm、Sparkなど)をカバーして、ApacheKafkaの経験を積むことができます。
コースの目的
EdurekaでApacheKafkaを使用したリアルタイム分析コースを完了すると、次のことができるようになります。Kafkaとそのコンポーネントの学習HadoopクラスターおよびYARNとともにエンドツーエンドのKafkaクラスターを確立するKafkaをSparkなどのリアルタイムストリーミングシステムと統合する&Storm高性能メッセージングシステムの設計と開発に関連する基本機能と高度な機能について説明します。 Kafkaを使用して、Twitterなどのストリーミングソースを含むさまざまなソースからメッセージを生成および消費します。KafkaAPIの概要を取得します。KafkaStreamAPIを理解します。実際のプロジェクトで作業します。'Kafka、Flume、Hadoop、およびStormを使用したTwitterストリーミングの実装
ビッグデータとAPACHEKAFKAの紹介。 目的:このモジュールでは、KafkaがビッグデータとKafkaアーキテクチャのスペースのどこに適合するかを理解します。 さらに、Kafkaクラスター、そのコンポーネント、およびクラスターの機能を構成する方法について学習します。Kafkaの概念KafkaのインストールKafkaクラスターの構成目的:このモジュールの最後に、次のことができるようになります。ビッグデータとは何かを説明するビッグデータ分析が重要である理由を理解するKafkaの必要性を説明する各Kafkaコンポーネントの役割を理解するZooKeeperの役割を理解するZooKeeperとKafkaをインストールするさまざまなタイプのKafkaクラスターを分類する単一ノードで動作する-シングルブローカークラスタートピック:ビッグデータビッグの概要Kafkaのデータ分析の必要性Kafkaとは何ですか? Kafkaの機能Kafkaの概念KafkaアーキテクチャKafkaコンポーネントZooKeeperKafkaはどこで使用されますか? KafkaのインストールKafkaクラスターKafkaクラスターの種類シングルノード構成シングルエージェントクラスター方法:Kafkaインストールシングルノード展開シングルエージェントクラスター受信トレイに配信される詳細なコーススケジュールを取得する調査の青写真をダウンロードする
カフカプロデューサー。 目的:Kafkaプロデューサーはトピックにログを送信します。 ログはメッセージと呼ばれることもあります。 このモジュールでは、さまざまなKafkaProducerAPIを使用します。 スキル:Kafkaプロデューサーの構成Kafkaプロデューサーの構築KafkaプロデューサーAPIパーティションの管理目的:このモジュールの最後に、次のことができるようになります。Kafkaプロデューサーの構築Kafkaへのメッセージの送信メッセージの同期的および非同期的な構成プロデューサーの構成ApacheAvroを使用したシリアル化作成と管理パーティションのテーマ:シングルノードシングルブローカークラスターの構成Kafkaプロデューサーの構築Kafkaにメッセージを送信するキー付きメッセージとキーなしメッセージを生成するメッセージを同期的および非同期的に送信するプロデューサーシリアライザーApache Avroパーティションを使用したシリアル化ハンズオン:
カフカ消費者。 目的:Kafkaからデータを読み取る必要があるアプリケーションは、Kafkaコンシューマーを使用して、Kafkaトピックをサブスクライブしてメッセージを受信します。 このモジュールでは、Kafkaコンシューマーを構築する方法、ConsumerでKafkaメッセージを処理する方法、Kafkaコンシューマーを実行する方法、トピックにサブスクライブする方法を学習します。できること:Kafkaで操作を実行するコンシューマーグループとKafkaコンシューマーを定義するパーティションバランシングがどのように発生するかを説明するKafkaコンシューマーを構成するKafkaコンシューマーを構成するKafkaコンシューマーを作成し、トピックにサブスクライブするさまざまなタイプのコミットメントを説明して実装する受信メッセージを逆シリアル化するトピック:
カフカインターナルズ。 目的:Apache Kafkaは、リアルタイムのデータフィードを処理するための統合された高性能で低レイテンシのプラットフォームを提供します。 高性能のニーズを満たすためにKafkaを調整する方法の詳細をご覧ください。 スキル:Kafka API Kafkaストレージ構成ブローカー目標:このモジュールの最後に、次のことができるようになります。Kafkaの内部を理解するKafkaでレプリケーションがどのように機能するかを説明する同期レプリカと非同期レプリカを区別するパーティションの割り当てを理解するKafkaでリクエストを分類および説明する信頼できるシステムのブローカー、プロデューサー、およびコンシューマーの構成システムの信頼性の検証パフォーマンス調整の問題についてKafkaを構成します。
インストラクター主導のセッションでは、すべての懸念事項にリアルタイムで対処します。
コースのオンライン学習リポジトリへの無制限のアクセス。
見られたケースのいずれかに基づいて、ライブ伴奏付きのプロジェクトを開発します
各クラスでは、教えられた概念を適用するのに役立つ実践的なタスクがあります。
こんにちは。どうすればお手伝いできますか? コースに興味がありますか? 何の主題についてですか?
レビューを追加