Samouczek Apache Spark zawiera podstawowe i zaawansowane koncepcje platformy Spark. Nasz samouczek dotyczący platformy Spark jest przeznaczony dla początkujących i profesjonalistów.
Spark to ujednolicony silnik analityczny do przetwarzania danych na dużą skalę, obejmujący wbudowane moduły SQL, przesyłania strumieniowego, uczenia maszynowego i przetwarzania wykresów.
rj12 kontra rj11
Nasz samouczek dotyczący platformy Spark obejmuje wszystkie tematy dotyczące Apache Spark z wprowadzeniem do platformy Spark, instalacją platformy Spark, architekturą platformy Spark, komponentami platformy Spark, RDD, przykładami platformy Spark w czasie rzeczywistym i tak dalej.
Co to jest Iskra?
Apache Spark to platforma obliczeniowa klastra typu open source. Jego głównym celem jest obsługa danych generowanych w czasie rzeczywistym.
Spark został zbudowany na bazie Hadoop MapReduce. Został zoptymalizowany do działania w pamięci, podczas gdy alternatywne podejścia, takie jak MapReduce Hadoopa, zapisują dane na i z dysków twardych komputera. Dlatego Spark przetwarza dane znacznie szybciej niż inne alternatywy.
Historia Apache Sparka
Spark został zainicjowany przez Matei Zaharię w AMPLab na Uniwersytecie Kalifornijskim w Berkeley w 2009 roku. Został udostępniony na zasadach open source w 2010 roku na licencji BSD.
W 2013 roku projekt został przejęty przez Apache Software Foundation. W 2014 roku Spark wyłonił się jako projekt Apache najwyższego poziomu.
Funkcje Apache Spark
Korzystanie ze Sparka
Warunek wstępny
Zanim nauczysz się Sparka, musisz posiadać podstawową wiedzę na temat Hadoopa.
Publiczność
Nasz samouczek dotyczący platformy Spark został zaprojektowany, aby pomóc początkującym i profesjonalistom.
Problemy
Zapewniamy, że nie znajdziesz żadnego problemu z tym tutorialem Spark. Jeśli jednak pojawi się jakiś błąd, prosimy o zgłoszenie problemu w formularzu kontaktowym.
łyżeczka vs łyżka