Pemprosesan Data Besar dengan Apache Spark & ​​Scala



Apache Spark telah muncul sebagai perkembangan besar dalam pemprosesan data besar.

penyemak imbas db untuk semakan sqlite

IST: 7:00 AM - 08:00 AM, 17 Oktober14





PDT: 6:30 PM - 7:30 PM, 16 Oktober ’14

Tempat duduk terhad !! Isi borang di sebelah kanan dan tempah slot anda hari ini.



Hai semua, kami mengadakan Webinar Percuma mengenai Apache Spark dan Scala pada 18 Oktober 14. Tajuk webinar adalah 'Pemprosesan Data Besar dengan Apache Spark dan Scala' . Dalam webinar ini, topik penting mengenai Apache Spark dan Scala akan dibincangkan. Sebarang pertanyaan atau keraguan dapat dijelaskan semasa sesi berlangsung.

Topik yang akan Diliputi:

  • Apa itu Big Data?
  • Apa itu Spark?
  • Mengapa Spark?
  • Ekosistem Spark
  • Catatan mengenai Scala
  • Mengapa Scala?
  • Hello Spark - Tangan

Mengapa Spark?

Apache Spark adalah kerangka pengkomputeran kluster sumber terbuka untuk kelompok komuniti Hadoop. Ia memenuhi syarat untuk menjadi salah satu mesin analitik dan pemprosesan data terbaik untuk data berskala besar dengan kelajuan, kemudahan penggunaan, dan analisis canggih yang tidak dapat ditandingi. Berikut adalah kelebihan dan ciri yang menjadikan Apache Spark sebagai pilihan utama untuk analisis operasi dan penyelidikan:

  • Program yang dikembangkan di Spark berjalan 100 kali lebih pantas daripada yang dikembangkan di Hadoop MapReduce.
  • Spark menyusun 80 pengendali peringkat tinggi.
  • Streaming Spark membolehkan pemprosesan data masa nyata.
  • GraphX ​​adalah perpustakaan untuk pengiraan grafik.
  • MLib adalah perpustakaan pembelajaran mesin untuk Spark.
  • Terutama ditulis dalam Scala, Spark dapat dimasukkan ke dalam sistem operasi berbasis JVM, pada masa yang sama juga dapat digunakan dengan cara REPL (Baca, Evaluasi, Proses dan Muatkan).
  • Ia mempunyai keupayaan cache dan ketekunan cakera yang kuat.
  • Spark SQL membolehkannya mengendalikan pertanyaan SQL dengan mahir
  • Apache Spark dapat digunakan melalui Apache Mesos, Benang di HDFS, HBase, Cassandra, atau Spark Cluster Manager (pengurus kluster Spark sendiri).
  • Spark mensimulasikan gaya dan koleksi API fungsi Scala, yang merupakan kelebihan besar bagi pemaju Scala dan Java.

Perlu Apache Spark:

Spark memberikan banyak manfaat kepada industri dari segi kepantasan, pelbagai tugas yang dapat dilakukannya, fleksibiliti, analisis data yang berkualiti, keberkesanan kos, dan lain-lain, yang merupakan keperluan hari ini. Ia memberikan penyelesaian analitik data besar kelas atas dan real-time kepada industri IT, memenuhi permintaan pelanggan yang meningkat. Analisis masa nyata memanfaatkan keupayaan perniagaan dengan banyak. Keserasiannya dengan Hadoop menjadikan syarikat mudah menggunakannya dengan cepat. Terdapat keperluan besar bagi pakar dan pemaju yang belajar Spark, kerana ini adalah teknologi yang agak baru, yang semakin banyak diadopsi.