の仮想プログラム:EDX |
Sparkとそのライブラリを使用してビッグデータの問題を解決する方法大規模なデータサイエンスとエンジニアリングの問題に取り組む方法SparkのAPI、アーキテクチャ、および多くの内部分散環境での通信と計算の間のトレードオフSparkの使用例
3ヵ月。 週に5〜10時間をお勧めします。
3つの高品質な仮想コース
Databricksと共同で作成されたSparkXSeriesを使用したデータサイエンスとエンジニアリングでは、大規模な機械学習タスクに適したクラスターコンピューティングシステムであるSparkを使用して、データサイエンスとデータエンジニアリングを大規模に実行する方法を学生に教えます。
また、探索的データ分析、特徴抽出、教師あり学習、モデル評価など、データ分析パイプラインのさまざまなコンポーネントに焦点を当てたデータ処理の統合ビューも紹介します。
学生は、Sparkアプリケーションの構築とデバッグを実際に体験できます。
Sparkと分散型機械学習アルゴリズムの内部について説明し、ビッグデータを操作して分散環境用のコードを開発する方法について学生に洞察を提供します。
このXSシリーズには、プログラミングの知識とPythonの経験(またはPythonをすばやく習得する能力)が必要です。
すべての演習でPySpark(PythonのSpark用API)を使用しますが、Sparkまたは分散コンピューティングの経験は必要ありません。
このシリーズのXNUMXつのコースでは、基本的な機械学習の概念に精通し、アルゴリズム、確率、線形代数、微積分に触れることが前提条件です。
キャリアを加速したり、学位を取得したり、個人的な理由で何かを学んだりする場合でも、edXには適切なコースがあります。
大学が支援するクレジットプログラムと検証済みの証明書であなたのキャリアを後押ししてください。
希望する学習時間に知識を学習して実証します。
支払う前にコースを試してください。
世界中の大学のパートナーや同僚と一緒に学びましょう。
専門家のBerkeleyXの教員とインストラクターは、質の高い仮想教育に取り組んでいます。
こんにちは。どうすればお手伝いできますか? コースに興味がありますか? 何の主題についてですか?
レビューを追加