Make sense. Главное понимать последовательность:shokoladnitsaa wrote:Спасибо, Сабина, тоже буду смотреть Hadoop .Хочу пока ограничиться Хадупом И ХайвомСабина wrote:Dezyre:
Hadoop - https://www.dezyre.com/Hadoop-Training-online/19" onclick="window.open(this.href);return false;
Spark- https://www.dezyre.com/apache-spark-sca ... -online/38" onclick="window.open(this.href);return false;
R - https://www.dezyre.com/data-science-in- ... raining/37" onclick="window.open(this.href);return false;
Python - https://www.dezyre.com/data-science-in- ... raining/36" onclick="window.open(this.href);return false;
Где на хакатоны записаться не нашла, но они всем участникам курсов предлагают, чтото вроде 20 в несяц, там чисто для тех кто хочет в Data Science
Сначала был хадуп и весь его инструментарий, включая Hive. Они решали задачи как вообще справляться с Big Data
Но в какой то момент его перестало быть достаточно чтобы решать определённые задачи вроде streaming и появился Спарк. Спарк работает "поверху Hadoop технологий" (HDFS ), но это следующее поколение и вся аналитика сейчас в Спарке по самые уши. То есть знание Хадупа или того же Хайва нужны чисто для понимания основ.
Вот хорошая речь Матея с недавнего Нью Йорского Spark Summit, - https://www.youtube.com/watch?v=B4nSMzsuaQw" onclick="window.open(this.href);return false;
Он объясняет где в наше время Спарк и какие задачи решает.
В общем хадуп стоит освоить, как основу, а потом "быренько" Спарк учить
