FreeCouponCodes.org ● Discount ● Sale ● Deal ● Gratis ● Gratuit ● Frei ● Gratuito ● Udemy ● Course ● kurssi ● 無 料 ● オンラインコース、온라인 코스 ● 무료 쿠폰 코드 ● Kurs ● Kod ● Kuponu ● Libre ● Gabay ● Ders ● Bedava  
LEGAL: This site has affiliate and advertising relation with LinkShare, FocalPrice, Daily Steals, Netfirms - Web Hosting for Small Business, 1&1 Internet Inc., The iPage Affiliate Program, Hotels.com, Skyscanner USA, Booking.com Italy, FashionMia, RoseGal, CheapAir.com, CJ.com, FatCow.com: MooMoney, Namecheap, Web Hosting Pad, DAZ 3D, QuickStart and other advertisers and entities including the ones which are linked to DoubleClick for Publishers (DFP), DoubleClick Ad Exchange (AdX), AdMob, and AdSense. We use cookies. We have affiliate and other relationship with advertisers/entities whose links are published. We earn commission for valid traffic, view, sale etc. We try to display advertiser's names on the image/banner/text.. links. Continuing to view this site means you accept and confirm. Contact for any question. HIDE

Spark, Hadoop, Scala, Certification, Development, Course, Udemy, Natürlich, Gutschein, Frei, Curso, Cupón, Gratis, Course, Free, Corso, Coupon, Gratuito, Cursus, Gratis, Cupom, Gratuito, Курс, Купон, Бесплатно, 课程,优惠券,免费,بالطبع، القسيمة، مجانا،دوره، کوپن، رایگان، , コース、クーポン、無料、 코스, 쿠폰, 무료

LEGAL INFO: We have affiliate and other relations with advertisers and entities whose links being published. We earn commission for valid traffic, sale etc. Advertiser: UDEMY, QuickStart - All links are deep linked based on affiliate relationship with Udemy and other advertisers whose links are being published on this website








"CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Arabic: سكا 175 - شرارة و هادوب شهادة المطور - سكالا كلوديرا شريك معتمد سبارك و هادوب المطور باستخدام سكالا كلغة البرمجة ماذا أتعلم؟ المناهج الدراسية كاملة من سكا سبارك و هادوب المطور أباتشي سكوب HDFS أساسيات سكالا الأساسية سبارك - التحولات والإجراءات شرارة سكل وإطارات البيانات تدفق تحليلات باستخدام كافكا، فلوم و شرارة الجري المتطلبات كمبيوتر محمول مع 64 بت نظام التشغيل وعلى الأقل 4 غيغابايت من ذاكرة الوصول العشوائي مهارات البرمجة الأساسية وصف المناهج كاملة من سكا سبارك و هادوب المطور باستخدام سكالا كلغة البرمجة أساسيات سكالا الأساسية سبارك - التحولات والإجراءات شرارة سكل وإطارات البيانات تنسيقات الملفات المدافن، كافكا و سبارك الجري أباتشي سكوب وسيتم توفير تمارين لإعداد قبل حضور الشهادة. نية الدورة هو تعزيز الثقة لحضور شهادة. من هو الجمهور المستهدف؟ أي إيت الطامحين / المهنية على استعداد لتعلم البيانات الكبيرة وإعطاء شهادة سكا 175 المناهج الدراسية لهذه الدورة طي الكل 64 محاضرة 00:02:42 - المقدمة 08:01 المقدمة 08:01 - أساسيات سكالا 2:29:54 المقدمة 10:51 إعداد سكالا 10:51 البرمجة الأساسية يبني 18:53 المهام 18:35 مفاهيم موجهة كائن - فئات 17:42 كائن، المفاهيم، -، الكائنات 13:02 مفاهيم موجهة كائن - فئات القضية 11:14 مجموعات - التسلسل، تعيين وخريطة 08:56 خريطة أساسية تقليل العمليات 14:08 إعداد مجموعات البيانات لعمليات الإدخال / الإخراج الأساسية 04:23 عمليات الإدخال / الإخراج الأساسية واستخدام واجهات برمجة تطبيقات مجموعات سكالا 16:23 الصفوف 04:56 - ابدء 1:29:40 مقدمة والمناهج الدراسية 05:45 بيئة الإعداد - خيارات 01:45 بيئة الإعداد - محليا 02:03 بيئة الإعداد - باستخدام كلوديرا سريعة فم 07:22 استخدام مختبرات البيانات الضخمة 09:00 استخدام ويندوز - المعجون وينسكب 10:33 استخدام ويندوز - سيغوين 14:46 هدفس معاينة سريعة 20:24 يارن معاينة سريعة 09:53 إعداد مجموعات البيانات 08:09 - تحويل، مرحلة ومخزن - شرارة 3:56:57 المقدمة 05:15 مقدمة إلى سبارك 02:22 لمحة سريعة عن وثائق سبارك 04:49 تهيئة سبارك العمل باستخدام شرارة قذيفة 18:39 إنشاء مجموعات بيانات موزعة مرنة (ردد) 13:40 معاينة البيانات من ردد 17:57 قراءة صيغ الملفات المختلفة - لمحة موجزة باستخدام جسون 09:34 نظرة عامة على التحولات 04:02 التلاعب سلاسل كجزء من التحولات باستخدام سكالا 13:44 التحولات مستوى الصف باستخدام الخريطة 18:09 التحولات مستوى الصف باستخدام فلاتماب 09:19 تصفية البيانات 18:03 الانضمام إلى مجموعات البيانات - الانضمام الداخلي 10:34 الانضمام إلى مجموعات البيانات - الانضمام الخارجي 17:29 التجميعات - الشروع في العمل 04:07 التجميعات - باستخدام الإجراءات (تقليل و كونتبيكي) 15:14 التجميع - فهم الموحد 06:50 التجميعات باستخدام غروبكي - واجهة برمجة التطبيقات الأقل تفضيلا للتجميعات 21:13 التجميعات باستخدام ريدومبيكي 07:36 التجميعات باستخدام التجميع بيكي 18:21 - تحليل البيانات - شرارة سكل أو هيفقل باستخدام سياق شرارة 3:58:10 واجهات مختلفة لتشغيل استعلامات هايف 09:25 إنشاء جداول خلية وتحميل البيانات في تنسيق ملف نصي 25:00 إنشاء جداول خلية وتحميل البيانات في تنسيق ملف أورك 10:18 استخدام شرارة قذيفة لتشغيل الاستعلامات خلية أو الأوامر 03:51 وظائف - الشروع في العمل 05:11 وظائف - التلاعب سلاسل 22:23 وظائف - التلاعب التواريخ 13:44 وظائف - التجميعات 05:49 وظائف - حالة 14:10 تحولات مستوى الصف 08:30 ينضم 18:10 تجمعات 11:41 فرز 07:27 تعيين العمليات 05:39 وظائف أناليتيكش - التجميعات 15:53 وظائف أناليتيكش - الترتيب 08:39 وظائف النافذة 07:48 إنشاء إطار البيانات وتسجيل كجدول درجة الحرارة 15:40 كتابة سبارك تطبيقات سكل - بيانات العملية 08:38 كتابة سبارك تطبيقات سكل - حفظ البيانات إلى جداول خلية 07:20 عمليات إطار البيانات 00:54 Danish: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 German: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Spanish: CCA 175 - Certificación de Desarrollador Spark and Hadoop - Scala Cloudera Certified Associate Spark y Hadoop Developer utilizando Scala como Lenguaje de programación ¿Qué voy a aprender? Plan de estudios completo de CCA Spark and Hadoop Developer Apache Sqoop HDFS Fundamentos de Scala Core Spark - Transformaciones y acciones Spark SQL y marcos de datos Streaming de análisis usando Kafka, Flume y Spark Streaming Requisitos Ordenador portátil con sistema operativo de 64 bits y al menos 4 GB de RAM Habilidades básicas de programación Descripción Plan de estudios completo de CCA Spark y Hadoop Developer utilizando Scala como Lenguaje de programación Fundamentos de Scala Core Spark - Transformaciones y acciones Spark SQL y marcos de datos Formatos de archivo Flume, Kafka y Spark Streaming Apache Sqoop Se proporcionarán ejercicios para prepararse antes de asistir a la certificación. La intención del curso es aumentar la confianza para asistir a la certificación. ¿Quién es el público objetivo? Cualquier aspirante a TI / profesional dispuesto a aprender Big Data y otorgar la certificación CCA 175 Currículo para este curso Contraer las 64 clases 12:02:42 - Introducción 08:01 Introducción 08:01 - Fundamentos de Scala 02:29:54 Introducción 10:51 Configurando Scala 10:51 Construcciones básicas de programación 18:53 Funciones 18:35 Conceptos orientados a objetos - Clases 17:42 Conceptos orientados a objetos - Objetos 13:02 Conceptos orientados a objetos - Clases de casos 11:14 Colecciones - Seq, Set y Map 08:56 Mapa Básico Reducir Operaciones 14:08 Configuración de conjuntos de datos para operaciones básicas de E / S 04:23 Operaciones básicas de E / S y uso de las API de Scala Collections 16:23 Tuples 04:56 - Empezando 01:29:40 Introducción y Currículo 05:45 Entorno de instalación - Opciones 01:45 Configuración del entorno: localmente 02:03 Entorno de instalación: utilizando Cloudera Quickstart VM 07:22 Usar los laboratorios de big data de itversity 09:00 Usando Windows - Putty y WinSCP 10:33 Usando Windows - Cygwin 14:46 Vista previa rápida HDFS 20:24 HILO Vista previa rápida 09:53 Configurar conjuntos de datos 08:09 - Transformar, escenario y tienda - Spark 03:56:57 Introducción 05:15 Introducción a Spark 02:22 Visión general rápida sobre la documentación de Spark 04:49 Inicializando el trabajo de chispa usando chispa-cáscara 18:39 Crear conjuntos de datos distribuidos resistentes (RDD) 13:40 Vista previa de datos desde RDD 17:57 Lectura de diferentes formatos de archivo: breve descripción con JSON 09:34 Descripción general de las transformaciones 04:02 Manipulación de cadenas como parte de transformaciones con Scala 13:44 Transformaciones de nivel de fila con mapa 18:09 Transformaciones de nivel de fila con flatMap 09:19 Filtrando los datos 18:03 Unirse a conjuntos de datos - unión interna 10:34 Unirse a conjuntos de datos - unión externa 17:29 Agregaciones - Comenzando 04:07 Agregaciones: uso de acciones (reduce y countByKey) 15:14 Agregaciones - Combinador de comprensión 06:50 Agregados que usan groupByKey: API menos preferida para agregaciones 21:13 Agregaciones que usan reduceByKey 07:36 Agregaciones que usan aggregateByKey 18:21 - Análisis de datos: Spark SQL o HiveQL utilizando Spark Context 03:58:10 Diferentes interfaces para ejecutar consultas Hive 09:25 Crear tablas Hive y cargar datos en formato de archivo de texto 25:00 Crear tablas Hive y cargar datos en formato de archivo ORC 10:18 Usar spark-shell para ejecutar consultas o comandos de Hive 03:51 Funciones - Primeros pasos 05:11 Funciones - Manipulación de cadenas 22:23 Funciones - Fechas de manipulación 13:44 Funciones - Agregaciones 05:49 Funciones - CASO 14:10 Transformaciones de nivel de fila 08:30 Une 18:10 Agregaciones 11:41 Clasificación 07:27 Establecer operaciones 05:39 Funciones de análisis: agregaciones 15:53 Funciones de análisis: clasificación 08:39 Funciones de ventana 07:48 Crear marco de datos y registrar como tabla Temp 15:40 Escribir aplicaciones Spark SQL: procesar datos 08:38 Escritura de aplicaciones Spark SQL: guarde datos en tablas Hive 07:20 Operaciones de marco de datos 12:54 Persian: CCA 175 - صدور گواهی جرقه و Hadoop - Scala Cloudera Certified Associate Spark و Hadoop Developer با استفاده از Scala به عنوان زبان برنامه نویسی چه چیزی را یاد می گیرم؟ برنامه درسی کامل CCA Spark و Hadoop Developer آپاچی Sqoop HDFS اصول اسکالا جرقه اصلی - تحولات و اقدامات SQL Spark و Data Frames جریان تجزیه و تحلیل با استفاده از کافکا، Flume و جرقه جریان الزامات لپ تاپ با 64 بیتی سیستم عامل و حداقل 4 گیگابایت رم مهارت های برنامه نویسی پایه شرح برنامه درسی کامل CCA Spark و Hadoop Developer با استفاده از Scala به عنوان زبان برنامه نویسی اصول اسکالا جرقه اصلی - تحولات و اقدامات SQL Spark و Data Frames فرمت های فایل Flume، Kafka و Spark Streaming آپاچی Sqoop تمرین قبل از حضور در صدور گواهینامه آماده خواهد شد. هدف از این دوره افزایش اعتماد به نفس برای حضور در صدور گواهینامه است. مخاطب هدف کیست؟ هر داوطلب IT / حرفه ای مایل به یادگیری اطلاعات بزرگ و گواهینامه CCA 175 است برنامه درسی برای این دوره سقوط تمام 64 سخنرانی 12:02:42 - معرفی 08:01 معرفی 08:01 - اصول اسکالا 02:29:54 معرفی 10:51 راه اندازی Scala 10:51 ساخت برنامه های پایه 18:53 توابع 18:35 مفاهیم شی گرا - کلاس ها 17:42 مفاهیم شی گرا - اشیاء 13:02 مفهوم Object Oriented - کلاس مورد 11:14 مجموعه ها - Seq، مجموعه و نقشه 08:56 نقشه پایه کاهش عملیات 14:08 تنظیم مجموعه داده برای عملیات I / O Basic 04:23 عملیات اساسی I / O و استفاده از API های مجموعه Scala 16:23 Tuples 04:56 - شروع شدن 01:29:40 مقدمه و برنامه درسی 05:45 محیط تنظیم - گزینه ها 01:45 محیط راه اندازی - محلی 02:03 محیط راه اندازی - استفاده از Cloudera Quickstart VM 07:22 با استفاده از آزمایشگاه داده های بزرگتر itversity 09:00 با استفاده از ویندوز - Putty و WinSCP 10:33 با استفاده از ویندوز - Cygwin 14:46 HDFS پیش نمایش سریع 20:24 پیش نمایش سریع YARN 09:53 تنظیمات مجموعه داده ها 08:09 - تبدیل، مرحله و فروشگاه - جرقه 03:56:57 معرفی 05:15 مقدمه ای بر جرقه 02:22 مروری سریع درباره اسناد جرقه 04:49 شروع کار جرقه با استفاده از جرقه پوسته 18:39 ایجاد مجموعه داده های توزیع انعطاف پذیر (RDD) 13:40 پیش نمایش داده ها از RDD 17:57 خواندن فرمت های مختلف فایل - مروری کوتاه با استفاده از JSON 09:34 تجدید نظر 04:02 رشته ها را به عنوان بخشی از تحولات با استفاده از Scala اداره می کنند 13:44 تغییرات سطح ردیف با استفاده از نقشه 18:09 تغییرات سطح ردیف با استفاده از FlatMap 09:19 فیلتر کردن داده ها 18:03 پیوستن به مجموعه داده ها - پیوستن به داخل 10:34 پیوستن به مجموعه داده ها - پیوستن به بیرون 17:29 انباشتگی - شروع کار 04:07 توزیع ها - استفاده از عملکردها (کاهش و شمارش کردن) 15:14 انباشتگی - درک ترکیبی 06:50 توزیع ها با استفاده از groupByKey - حداقل API مورد نظر برای جمع آوری 21:13 انبساط با استفاده از reduceByKey 07:36 انباشتگی با استفاده از aggregateByKey 18:21 - تجزیه و تحلیل داده ها - SQL Spark یا HiveQL با استفاده از Spark Context 03:58:10 اینترفیس های مختلف برای اجرای نمایشنامه های هوی 09:25 ایجاد جداول انجیر و بارگیری داده ها در قالب فایل متنی 25:00 ایجاد جداول انجیر و بارگیری داده ها در قالب فایل ORC 10:18 با استفاده از جرقه پوسته برای اجرای پرس و جوها یا فرمانهای حشره 03:51 توابع - شروع به کار 05:11 توابع - دستکاری رشته ها 22:23 توابع - دستکاری تاریخ 13:44 توابع - انباشتگی 05:49 توابع - CASE 14:10 تغییرات سطح ردیف 08:30 پیوستن 18:10 انباشتگی 11:41 مرتب سازی 07:27 تنظیم عملیات 05:39 توابع تجزیه و تحلیل - انباشتگی 15:53 توابع تجزیه و تحلیل - رتبه بندی 08:39 توابع windowing 07:48 ایجاد قاب داده و ثبت نام به عنوان جدول تمپ 15:40 نوشتن Spark SQL Applications - پردازش داده ها 08:38 Writing Spark SQL Applications - صرفه جویی در داده ها به جداول هویج 07:20 عملیات داده قاب 12:54 Finnish: CCA 175 - Spark ja Hadoop Developer Certification - Scala Cloudera Certified Associate Spark ja Hadoop-kehittäjä käyttäen Scalaa ohjelmointikieltä Mitä opettelen? CCA Sparkin ja Hadoop Developerin koko opetussuunnitelma Apache Sqoop HDFS Scala Fundamentals Core Spark - muutokset ja toimet Spark SQL ja Data Frames Streaming analytics käyttäen Kafka, Flume ja Spark Streaming vaatimukset 64-bittinen käyttöjärjestelmä ja vähintään 4 Gt RAM-muistia Perusohjelmointitaidot Kuvaus Täydellinen CCA Spark- ja Hadoop Developer -opetussuunnitelma käyttäen Scalaa ohjelmointikieltä Scala Fundamentals Core Spark - muutokset ja toimet Spark SQL ja Data Frames Tiedostomuodot Flume, Kafka ja Spark Streaming Apache Sqoop Harjoituksia annetaan valmistautua ennen sertifiointiin osallistumista. Tavoitteena on lisätä luottamusta sertifiointiin. Kuka on kohdeyleisö? Kaikki tietotekniikan ammattilaiset / ammattilaiset, jotka haluavat oppia suuria tietoja ja antavat CCA 175 -sertifikaatin Tämän kurssin opetussuunnitelma Pienennä kaikki 64 luentoa 12:02:42 - esittely 08:01 esittely 08:01 - Scala Fundamentals 02:29:54 esittely 10:51 Scalan perustaminen 10:51 Perusohjelmointimuodot 18:53 tehtävät 18:35 Kohdeolosuhteet - luokat 17:42 Objektiiviset käsitteet - esineet 13:02 Esineoikeudelliset käsitteet - Case-luokat 11:14 Kokoelmat - Seq, Set ja Map 08:56 Peruskartta vähentää toimintoja 14:08 Datasettien perustaminen I / O-operaatioille 04:23 I / O-perustoiminnot ja Scala-kokoelma-sovellusliittymät 16:23 tuples 04:56 - Päästä alkuun 01:29:40 Johdanto ja opetussuunnitelma 05:45 Asennusympäristö - Asetukset 01:45 Asennusympäristö - Paikallinen 02:03 Setup Environment - käyttämällä Cloudera Quickstart VM: tä 07:22 Käyttämällä itversityn suuria tietokenttiä 09:00 Windowsin käyttö - Putty ja WinSCP 10:33 Windowsin käyttö - Cygwin 14:46 HDFS pikakatselu 20:24 YARN pikakatselu 09:53 Asennustietojen asetukset 08:09 - Muunna, Vaihe ja Store - Kipinä 03:56:57 esittely 05:15 Johdatus Sparkiin 02:22 Nopea katsaus Spark-dokumentaatioon 04:49 Kipinöinnin alustus kipinäsuojuksella 18:39 Luo Resilient Distributed Data Sets (RDD) 13:40 RDD: n tietojen esikatselu 17:57 Eri tiedostomuodot - Lyhyt katsaus JSON: n avulla 09:34 Transformations Overview 04:02 Vaihtojen manipulointi osana Scalaa käyttäviä transformaatioita 13:44 Rivitason muutokset käyttämällä karttaa 18:09 Rivitasomuunnokset käyttäen flatMapia 09:19 Suodatetaan tiedot 18:03 Tietojen yhdistäminen - sisäinen liitäntä 10:34 Tietojen yhdistäminen - ulompi liitäntä 17:29 Yhdistelmät - Aloittaminen 04:07 Yhdistelmät - toimintojen käyttäminen (vähennä ja countByKey) 15:14 Yhdistelmät - yhdistelmän ymmärtäminen 06:50 Yhdistelmät, joissa käytetään groupByKey - vähiten suositeltavaa sovellusliittymää aggregointeihin 21:13 Aggregations using reduceByKey 07:36 Aggregations käyttäen aggregateByKey 18:21 - Tietojen analysointi - Spark SQL tai HiveQL käyttäen Spark-kontekstia 03:58:10 Eri liitännät Hive-kyselyjen suorittamiseen 09:25 Luo pesätaulukoita ja lataa tietoja tekstitiedostomuotoon 25:00 Luo pesätaulukoita ja lataa tietoja ORC-tiedostomuotoon 10:18 Käytä kipinäsuojaa Hive-kyselyiden tai komentoiden suorittamiseen 03:51 Toiminnot - Aloittaminen 05:11 Toiminnot - Jousien käsitteleminen 22:23 Toiminnot - Päivien käsitteleminen 13:44 Toiminnot - aggregaatiot 05:49 Toiminnot - CASE 14:10 Riviaseman muutokset 08:30 Liitosten 18:10 aggregoinneista 11:41 lajittelu 07:27 Aseta toiminnot 05:39 Analytics-toiminnot - aggregaatiot 15:53 Analytics-toiminnot - Ranking 08:39 Windowing-toiminnot 07:48 Luo Data Frame ja rekisteröi Temp taulukoksi 15:40 Kynttilän SQL-sovellusten kirjoittaminen - prosessitiedot 08:38 Spark SQL -ohjelmien kirjoittaminen - Tallenna tiedot Hive-taulukoihin 07:20 Data Frame -toiminnot 12:54 French: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Irish: CCA 175 - Deimhniúchán Forbróirí Spark agus Hadoop - Scala Spark Comhlach Deimhnithe Cloudera agus Forbróir Hadoop ag baint úsáide as Scala mar Theanga Cláir Cad a Thuigim? Curaclam iomlán CCA Spark agus Hadoop Developer Apache Sqoop HDFS Bunreachtaí Scala Core Spark - Athruithe agus Gníomhartha Spark SQL agus Frámaí Sonraí Sreabhadh anailíseacha ag baint úsáide as Kafka, Flume agus Spark Streaming Riachtanais Glúine le córas oibriúcháin 64 giotán agus RAM 4 GB ar a laghad Scileanna cláir bhunúsacha Cur síos Curaclam iomlán CCA Spark agus Hadoop Developer ag baint úsáide as Scala mar Theanga Cláir Bunreachtaí Scala Core Spark - Athruithe agus Gníomhartha Spark SQL agus Frámaí Sonraí Formáidí comhad Flume, Kafka agus Spark Streaming Apache Sqoop Cuirfear cleachtaí ar fáil chun iad a ullmhú sula bhfreastalaíonn siad ar an deimhniú. Is é aidhm an chúrsa ná an muinín a mhéadú chun freastal ar an deimhniú. Cé hé an spriocghrúpa? Aon deimhnithe TF / gairmiúil atá sásta Big Data a fhoghlaim agus deimhniú CCA 175 a thabhairt Curaclam don Chúrsa seo Gach 64 Léacht a Chosc 12:02:42 - Réamhrá 08:01 Réamhrá 08:01 - Bunreachtaí Scala 02:29:54 Réamhrá 10:51 Scala a chur ar bun 10:51 Tógálacha Cláir Bunúsacha 18:53 Feidhmeanna 18:35 Coincheapa Spriocdhírithe - Ranganna 17:42 Coincheapa Spriocdhírithe - Cuspóirí 13:02 Coincheapa Spriocdhírithe - Ranganna Cáis 11:14 Bailiúcháin - Seq, Set and Map 08:56 Oibríochtaí Laghdú ar Bhunachar Léarscáil 14:08 Socruithe Sonraí a bhunú le haghaidh Oibríochtaí Bunúsacha I / O 04:23 Oibríochtaí Bunúsacha I / O agus ag baint úsáide as API Bailiúcháin Scala 16:23 Tuples 04:56 - Ag tosú 01:29:40 Réamhrá agus Curaclam 05:45 Comhshaol Socraithe - Roghanna 01:45 Comhshaol Socraithe - Go háitiúil 02:03 Comhshaol Socraithe - ag baint úsáide as Cloudera Quickstart VM 07:22 Ag baint úsáide as saotharlanna sonraí mór itversity 09:00 Ag baint úsáide as Windows - Putty agus WinSCP 10:33 Ag baint úsáide as Windows - Cygwin 14:46 Réamhamharc Tapa HDFS 20:24 TÁBHAR Réamhamharc Tapa 09:53 Socruithe Sonraí Socraithe 08:09 - Trasfhoirmiú, Céim agus Stóráil - Spark 03:56:57 Réamhrá 05:15 Réamhrá do Spark 02:22 Forbhreathnú tapa faoi dhoiciméadú Spark 04:49 Ag tosú ag obair Spark ag baint úsáide as spark-shell 18:39 Cruthaigh Socruithe Sonraí Dáilte Athshlánúcháin (RDD) 13:40 Réamhamharcú sonraí ó RDD 17:57 Ag léamh formáidí comhaid éagsúla - Forbhreathnú gairid ag baint úsáide as JSON 09:34 Forbhreathnú Trasfhoirmithe 04:02 Snáitheanna a Mhaolú mar chuid de chlaochlú ag baint úsáide as Scala 13:44 Trasfhoirmiú leibhéil na rón ag baint úsáide as léarscáil 18:09 Trasfhoirmiú leibhéil na rón ag baint úsáide as flatMap 09:19 Scagadh na sonraí 18:03 Leagann tacar sonraí - páirt a ghlacadh istigh 10:34 Leagann tacar sonraí - páirt a ghlacadh lasmuigh 17:29 Comhiomláin - Ag tosú 04:07 Comhiomláin - gníomhartha a úsáid (laghdú agus countByKey) 15:14 Comhiomláin - tuiscint a fháil ar theagascóir 06:50 Comhiomláin ag baint úsáide as groupByKey - API is fearr le haghaidh comhiomláin 21:13 Comhiomláin ag baint úsáide as lowerByKey 07:36 Comhiomláin ag baint úsáide as aggregateByKey 18:21 - Anailís Sonraí - Spark SQL nó HiveQL ag baint úsáide as Comhthéacs Spark 03:58:10 Comhéadain éagsúla chun ceisteanna Hive a reáchtáil 09:25 Cruthaigh táblaí Hive agus sonraí luchtaithe i bhformáid comhad téacs 25:00 Cruthaigh táblaí Hive agus sonraí luchtaithe i bhformáid comhaid ORC 10:18 Ag baint úsáide as spark-shell chun ceisteanna nó orduithe Hive a reáchtáil 03:51 Feidhmeanna - Ag tosú 05:11 Feidhmeanna - Stringings a Mhainú 22:23 Feidhmeanna - Dátaí Mionsonraithe 13:44 Feidhmeanna - Comhiomláin 05:49 Feidhmeanna - CÁS 14:10 Trasfhoirmithe ar leibhéal na rithe 08:30 Buaileann 18:10 Comhiomláin 11:41 Sórtáil 07:27 Oibríochtaí Socraithe 05:39 Feidhmeanna Anailíse - Comhiomláin 15:53 Feidhmeanna Anailíse - Rangú 08:39 Feidhmeanna Windowing 07:48 Cruthaigh Fráma Sonraí agus Cláraigh mar tábla Teocht 15:40 Iarratais SQL Spark a scríobh - sonraí próiseála 08:38 Iarratais SQL Spark a Scríobh - Sábháil sonraí i dtáblaí Hive 07:20 Oibríochtaí Fráma Sonraí 12:54 Hungarian: CCA 175 - Spark és Hadoop fejlesztői tanúsítás - Scala Cloudera Certified Associate Spark és Hadoop Developer a Scala programozási nyelv használatával Mit tanulok? A CCA Spark és a Hadoop Developer teljes tanterve Apache Sqoop HDFS Scala alapjai Core Spark - átalakítások és cselekvések Spark SQL és adatkeretek Streaming analytics a Kafka, Flume és Spark Streaming használatával követelmények Laptop 64 bites operációs rendszerrel és legalább 4 GB RAM Alapvető programozási készségek Leírás A CCA Spark és a Hadoop Developer teljes tanterve a Scala programozási nyelveként Scala alapjai Core Spark - átalakítások és cselekvések Spark SQL és adatkeretek Fájlformátumok Flume, Kafka és Spark Streaming Apache Sqoop Gyakorlatokat kell biztosítani, hogy felkészülhessenek a tanúsítás megkezdése előtt. A kurzus célja, hogy növelje a tanúsításhoz való bizalmat. Ki a célközönség? Bármely IT-aspiráns / szakember, aki hajlandó a Big Data tanulására és a CCA 175 tanúsításra Tanfolyam ennek a kurzusnak Összecsukja az összes 64 előadást 00:02:42 - Bevezetés 08:01 Bevezetés 08:01 - Scala alapjai 02:29:54 Bevezetés 10:51 A Scala beállítása 10:51 Alapvető programozási konstrukciók 18:53 Funkciók 18:35 Objektumorientált fogalmak - Osztályok 17:42 Objektumorientált fogalmak - Tárgyak 13:02 Objektumorientált fogalmak - Osztályok 11:14 Gyűjtemények - Seq, Set és Map 08:56 Alapvető térképek csökkentik a műveleteket 14:08 Adatbeállítások beállítása az alapvető I / O műveletekhez 04:23 Alap I / O műveletek és a Scala gyűjtemény API-k használata 16:23 rekordcsoportok 04:56 - Elkezdeni 01:29:40 Bevezetés és tananyag 05:45 Telepítési környezet - Opciók 01:45 Telepítési környezet - Helyileg 02:03 Beállítási környezet - a Cloudera Quickstart VM használatával 07:22 A nagyméretű adatlaborok használatával 09:00 Windows - Putty és WinSCP használata 10:33 A Windows használata - Cygwin 14:46 HDFS gyors előnézet 20:24 YARN gyors előnézet 09:53 Az adatkészletek beállítása 08:09 - Átalakítás, Stage és Store - Spark 03:56:57 Bevezetés 05:15 Bevezetés a Sparkba 02:22 Gyors áttekintés a Spark dokumentációról 04:49 A szikragyújtás inicializálása szikrázóhéj segítségével 18:39 Resilient Distributed Data Sets (RDD) létrehozása 13:40 Az RDD adatok megtekintése 17:57 Különböző fájlformátumok olvasása - rövid áttekintés a JSON használatával 09:34 Transzformációk áttekintése 04:02 Szalagok manipulálása a Scala segítségével végzett átalakítások részeként 13:44 Sor alapú transzformációk a térkép segítségével 18:09 Soros szint transzformációk flatMap használatával 09:19 Az adatok szűrése 18:03 Adathordozók összekapcsolása - belső csatlakozás 10:34 Adathordozók összekapcsolása - külső csatlakozás 17:29 Aggregációk - Első lépések 04:07 Aggregációk - műveletek (csökkentés és countByKey) 15:14 Aggregációk - kombináció megértése 06:50 Aggregációk a groupByKey segítségével - a legkevésbé előnyben részesített API az aggregációkhoz 21:13 A reductionByKey használatával végzett aggregációk 07:36 Aggregációk az aggregateByKey használatával 18:21 - Adatelemzés - Spark SQL vagy HiveQL a Spark Context segítségével 03:58:10 Különböző interfészek a Hive lekérdezések futtatásához 09:25 Létrehozhatja a méregtelenítő táblákat és betöltheti az adatokat szöveges fájlformátumban 25:00 Hive táblázatokat hozhat létre és adatokat tölthet be ORC fájlformátumban 10:18 Gyújtóhéj használata a Hive lekérdezések vagy parancsok futtatásához 03:51 Funkciók - Első lépések 05:11 Funkciók - Húrláncok manipulálása 22:23 Funkciók - dátumok manipulálása 13:44 Funkciók - Aggregációk 05:49 Funkciók - CASE 14:10 Sor szintű átalakítások 08:30 csatlakozik 18:10 csoportosulásai 11:41 Válogatás 07:27 Műveletek beállítása 05:39 Analytics funkciók - aggregációk 15:53 Analytics funkciók - rangsorolás 08:39 Windowing funkciók 07:48 Adatkeret létrehozása és Regisztrálás Temp táblaként 15:40 Spark SQL alkalmazások írása - folyamatadatok 08:38 Spark SQL alkalmazások írása - Adatok mentése a Hive táblákba 07:20 Adatkeret műveletek 00:54 Indonesian: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Italian: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Hebrew: CCA 175 - ספארק ו Hadoop Developer הסמכה - Scala Cloudera מוסמך עמית ספארק ו Hadoop מפתח באמצעות סקאלה כמו שפת תכנות מה ילמד? כל תוכנית הלימודים של CCA ספארק ו Hadoop Developer אפאצ'י סקופ HD יסודות סקאלה ליבה ניצוץ - טרנספורמציות ופעולות ניצוץ SQL ומסגרות נתונים זרימת ניתוח באמצעות קפקא, Flume ו Spark הזרמת דרישות מחשב נייד עם מערכת הפעלה 64 ביט לפחות 4 GB RAM מיומנויות תכנות בסיסיות תאור תוכנית הלימודים השלם של CCA ספארק ו Hadoop מפתח באמצעות סקאלה כמו שפת תכנות יסודות סקאלה ליבה ניצוץ - טרנספורמציות ופעולות ניצוץ SQL ומסגרות נתונים פורמטים של קבצים פלומה, קפקא וזרם ניצוץ אפאצ'י סקופ תרגילים יסופקו כדי להכין לפני השתתפות הסמכה. הכוונה של הקורס היא להגביר את הביטחון להשתתף הסמכה. מי קהל היעד? כל שאיפת IT / מקצועי מוכן ללמוד נתונים גדולים ולתת הסמכה 175 CCA תוכנית הלימודים עבור קורס זה קריסת כל הרצאות 12:02:42 - מבוא 08:01 מבוא 08:01 - יסודות סקאלה 02:29:54 מבוא 10:51 הגדרת סקאלה 10:51 בסיסי תכנות מבנית 18:53 פונקציות 18:35 מושגים מונחה עצמים - כיתות 17:42 מושגים מונחה עצמים - אובייקטים 13:02 מושגים מונחה עצמים - כיתות מקרה 11:14 אוספים - Seq, סט ומפה 08:56 מפת בסיסי להפחית את התפעול 14:08 הגדרת ערכות נתונים עבור פעולות קלט / פלט בסיסיות 04:23 פעולות I / O בסיסיות ושימוש בממשקי API של Skala 16:23 זוגות 04:56 - מתחילים 01:29:40 מבוא ותכנית הלימודים 05:45 סביבת התקנה - אפשרויות 01:45 סביבת התקנה - מקומית 02:03 סביבת התקנה - שימוש ב- Clowdera Quickstart VM 07:22 שימוש במעבדות הנתונים הגדולות של איברסיטי 09:00 באמצעות Windows - מרק WinSCP 10:33 באמצעות Windows - Cygwin 14:46 HDFS תצוגה מקדימה מהירה 20:24 תצוגה מקדימה מהירה YARN 09:53 הגדרת ערכות נתונים 08:09 - טרנספורמציה, הבמה והחנות - ניצוץ 03:56:57 מבוא 05:15 מבוא לניצוץ 02:22 סקירה כללית על תיעוד Spark 04:49 אתחול העבודה ספארק באמצעות פגז ניצוץ 18:39 יצירת ערכות נתונים מבוזרות גמישות (RDD) 13:40 תצוגה מקדימה של נתונים מ- RDD 17:57 קריאת פורמטים שונים של קבצים - סקירה קצרה באמצעות JSON 09:34 סקירה כללית של טרנספורמציות 04:02 מניפולציה מחרוזות כחלק מהשינויים באמצעות סקאלה 13:44 השורה ברמת transformations באמצעות מפה 18:09 השורה ברמת transformations באמצעות flatMap 09:19 סינון הנתונים 18:03 הצטרפות למערכות נתונים - הצטרפות פנימית 10:34 ההצטרפות ערכות נתונים - להצטרף החיצוני 17:29 צבירים - תחילת העבודה 04:07 צבירה - שימוש בפעולות (צמצום וספירה) 15:14 צבירת - קומבינר הבנה 06:50 צבירה באמצעות GroupByKey - ממשק API מועדף לפחות עבור צבירת נתונים 21:13 צבירה באמצעות 07:36 צבירה באמצעות aggregateByKey 18:21 - ניתוח נתונים - ספארק SQL או HiveQL באמצעות הקשר ספארק 03:58:10 ממשקים שונים להפעלת שאילתות Hive 09:25 יצירת טבלאות כוורת נתונים לטעון בפורמט קובץ טקסט 25:00 יצירת טבלאות כוורת נתונים לטעון בפורמט קובץ ORC 10:18 שימוש בקליפת ניצוץ כדי להפעיל שאילתות או פקודות של Hive 03:51 פונקציות - תחילת העבודה 05:11 פונקציות - מניפולציה מחרוזות 22:23 פונקציות - מניפולציות תאריכים 13:44 פונקציות - צבירה 05:49 פונקציות - CASE 14:10 השורה ברמת transformations 08:30 מצטרף 18:10 צבירה 11:41 מִיוּן 07:27 הגדר פעולות 05:39 פונקציות של Analytics - צבירת נתונים 15:53 פונקציות Analytics - דירוג 08:39 פונקציות חלון 07:48 יצירת מסגרת נתונים ולהירשם טבלה Temp 15:40 כתיבה Spark יישומים SQL - נתוני התהליך 08:38 כתיבה Spark יישומי SQL - שמור נתונים לתוך טבלאות כוורת 07:20 פעולות מסגרת נתונים 12:54 Japanese: CCA 175 - SparkとHadoopデベロッパー認定 - Scala Scoualaをプログラミング言語として使用するCloudera Certified Associate SparkとHadoop Developer 私は何を学びますか? CCA SparkとHadoop Developerのカリキュラム全体 Apache Sqoop HDFS スカラの基礎 コアスパーク - 変換とアクション スパークSQLとデータフレーム Kafka、Flume、Spark Streamingを使用したスト リーミング分析 要件 64ビットのオペレーティングシステムと少なくとも4 GBのRAMを搭載したラップトップ 基本的なプログラミングスキル 説明 Scalaをプログラミング言語として使用するCCA SparkおよびHadoop Developerの完全なカリキュラム スカラの基礎 コアスパーク - 変換とアクション スパークSQLとデータフレーム ファイル形式 Flume、Kafka、Spark Streaming Apache Sqoop 認定に行く前に準備のための練習が用意されています。コースの目的は、認定に出席する自信を高めることです。 ターゲットオーディエンスは誰ですか? ビッグデータを学びCCA 175認定を取得しようとするIT専門家/専門家 このコースのカリキュラム すべての64の講義を折りたたむ 12:02:42 - 前書き 08:01 前書き 08:01 - スカラの基礎 02:29:54 前書き 10:51 Scalaの設定 10:51 基本的なプログラミング構造 18:53 機能 18:35 オブジェクト指向の概念 - クラス 17:42 オブジェクト指向の概念 - オブジェクト 13:02 オブジェクト指向の概念 - ケースクラス 11:14 コレクション - シーケンス、セット、マップ 08:56 基本マップ縮小操作 14:08 基本I / O操作のためのデータ・セットのセットアップ 04:23 基本I / O操作とScalaコレクションAPIの使用 16:23 タプル 04:56 - 入門 01:29:40 はじめにとカリキュラム 05:45 セットアップ環境 - オプション 01:45 環境設定 - ローカル 02:03 セットアップ環境 - ClouderaクイックスタートVMを使用する 07:22 itversityの大きなデータラボを使用する 09:00 Windowsの使用 - パテとWinSCP 10:33 Windowsを使う - Cygwin 14:46 HDFSクイックプレビュー 20:24 YARNクイックプレビュー 09:53 セットアップデータセット 08:09 - トランスフォーム、ステージ、ストア - スパーク 03:56:57 前書き 05:15 スパークの紹介 02:22 Sparkのドキュメントの概要 04:49 スパークシェルを使用したスパークジョブの初期化 18:39 復元力のある分散データセット(RDD)の作成 13:40 RDDからのデータのプレビュー 17:57 異なるファイル形式を読む - JSONを使用した簡単な概要 09:34 変換の概要 04:02 Scalaを使用した変換の一部としての文字列の操作 13:44 マップを使用した行レベルの変換 18:09 flatMapを使用した行レベルの変換 09:19 データのフィルタリング 18:03 データセットの結合 - 内部結合 10:34 データセットの結合 - 外部結合 17:29 集約 - はじめに 04:07 集約 - アクションの使用(reduceおよびcountByKey) 15:14 集約 - コンバイナーの理解 06:50 groupByKeyを使用する集約 - 集約のための最も優先度の低いAPI 21:13 reduceByKeyを使用した集計 07:36 aggregateByKeyを使用する集計 18:21 - データ分析 - Spark Contextを使用したSpark SQLまたはHiveQL 03:58:10 Hiveクエリを実行するさまざまなインターフェイス 09:25 ハイブテーブルを作成し、テキストファイル形式でデータをロードする 25:00 Hiveテーブルを作成し、データをORCファイル形式でロードする 10:18 スパークシェルを使用してHiveクエリまたはコマンドを実行する 03:51 関数 - はじめに 05:11 関数 - 文字列の操作 22:23 関数 - 日付の操作 13:44 関数 - 集約 05:49 関数 - ケース 14:10 行レベルの変換 08:30 結合 18:10 集約 11:41 並べ替え 07:27 操作を設定する 05:39 Analytics機能 - 集約 15:53 アナリティクス機能 - ランキング 08:39 ウィンドウ関数 07:48 データフレームを作成し、一時表として登録する 15:40 Spark SQLアプリケーションの作成 - データの処理 08:38 Spark SQLアプリケーションの作成 - Hiveテーブルにデータを保存する 07:20 データフレーム操作 12:54 Korean: CCA 175 - Spark 및 Hadoop 개발자 인증 - Scala Scouala를 프로그래밍 언어로 사용하는 Cloudera Certified Associate Spark 및 Hadoop 개발자 나는 무엇을 배울 것인가? CCA Spark 및 Hadoop 개발자의 전체 커리큘럼 Apache Sqoop HDFS 스칼라 기초 코어 스파크 - 변환 및 동작 Spark SQL 및 데이터 프레임 Kafka, Flume 및 Spark Streaming을 사용한 스트리밍 분석 요구 사항 64 비트 운영 체제 및 최소 4GB RAM의 노트북 기본 프로그래밍 기술 기술 스칼라를 프로그래밍 언어로 사용하여 CCA Spark 및 Hadoop 개발자의 완벽한 커리큘럼 스칼라 기초 코어 스파크 - 변환 및 동작 Spark SQL 및 데이터 프레임 파일 형식 Flume, Kafka 및 Spark Streaming Apache Sqoop 인증을 받기 전에 연습 준비가 제공됩니다. 과정의 의도는 인증에 참석하는 자신감을 높이는 것입니다. 타겟 고객은 누구입니까? 빅 데이터를 배우고 CCA 175 인증을 기꺼이 받겠다는 IT 지망자 / 전문가 이 과정의 커리큘럼 전체 64 강의 축소 12:02:42 - 소개 08:01 소개 08:01 - 스칼라 기초 02:29:54 소개 10:51 스칼라 설정하기 10:51 기본 프로그래밍 구조 18:53 기능들 18:35 객체 지향 개념 - 클래스 17:42 객체 지향 개념 - 객체 13:02 객체 지향 개념 - 사례 클래스 11:14 컬렉션 - 순서, 설정 및지도 08:56 기본지도 작업 축소 14:08 기본 I / O 조작을위한 데이터 세트 설정 04:23 기본 I / O 작업 및 스칼라 컬렉션 API 사용 16:23 튜플 04:56 - 시작하기 01:29:40 소개 및 커리큘럼 05:45 환경 설정 - 옵션 01:45 환경 설정 - 로컬 02:03 환경 설정 - Cloudera 빠른 시작 VM 사용 07:22 itversity의 대규모 데이터 연구소 사용 09:00 Windows 사용 - 퍼티 및 WinSCP 10:33 Windows 사용 - Cygwin 14:46 HDFS 빠른 미리보기 20:24 YARN 빠른 미리보기 09:53 데이터 세트 설정 08:09 - 변형, 스테이지 및 저장 - 스파크 03:56:57 소개 05:15 스파크 소개 02:22 Spark 설명서에 대한 간략한 개요 04:49 스파크 쉘을 사용하여 스파크 작업 초기화하기 18:39 탄력적 인 분산 데이터 세트 (RDD) 생성 13:40 RDD에서 데이터 미리보기 17:57 다른 파일 형식 읽기 - JSON을 사용한 간략한 개요 09:34 변환 개요 04:02 스칼라를 사용하여 변형의 일부로 문자열 조작 13:44 지도를 사용하여 행 수준 변환 18:09 flatMap을 사용하여 행 수준 변환 09:19 데이터 필터링 18:03 데이터 세트 조인 - 내부 조인 10:34 데이터 세트 조인 - 외부 조인 17:29 집계 - 시작하기 04:07 집계 - 작업 (reduce 및 countByKey) 사용 15:14 집계 - 결합기 이해 06:50 groupByKey를 사용하는 집계 - 집계에 대해 가장 선호되지 않는 API 21:13 reduceByKey를 사용하는 집계 07:36 aggregateByKey를 사용하는 집계 18:21 - 데이터 분석 - 스파크 컨텍스트를 사용하는 스파크 SQL 또는 HiveQL 03:58:10 하이브 쿼리를 실행하는 다양한 인터페이스 09:25 하이브 테이블을 만들고 텍스트 파일 형식으로 데이터로드 25:00 하이브 테이블을 만들고 ORC 파일 형식으로 데이터로드 10:18 spark-shell을 사용하여 Hive 쿼리 또는 명령 실행 03:51 함수 - 시작하기 05:11 함수 - 문자열 조작 22:23 함수 - 날짜 조작 13:44 함수 - 집계 05:49 함수 - 사례 14:10 행 수준 변환 08:30 조인 18:10 집계 11:41 정렬 07:27 작업 설정 05:39 웹 로그 분석 함수 - 집계 15:53 분석 기능 - 순위 08:39 창 작업 기능 07:48 데이터 프레임 생성 및 임시 테이블로 등록 15:40 Spark SQL 응용 프로그램 작성 - 데이터 처리 08:38 Spark SQL 응용 프로그램 작성 - 데이터를 Hive 테이블에 저장 07:20 데이터 프레임 작업 12:54 Dutch: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Norwegian: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Polish: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Portuguese: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Romanian: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Russian: CCA 175 - Сертификация разработчика Spark и Hadoop - Scala Cloudera Certified Associate Spark и разработчик Hadoop с использованием Scala в качестве языка программирования Что я узнаю? Целая учебная программа разработчика CCA Spark и Hadoop Apache Sqoop HDFS Основы Scala Core Spark - Трансформации и действия Искры SQL и фреймы данных Потоковая аналитика с использованием потоков Kafka, Flume и Spark Требования Ноутбук с 64-разрядной операционной системой и не менее 4 ГБ ОЗУ Основные навыки программирования Описание Полная учебная программа разработчика CCA Spark и Hadoop с использованием Scala в качестве языка программирования Основы Scala Core Spark - Трансформации и действия Искры SQL и фреймы данных Форматы файлов Flume, Kafka и Spark Streaming Apache Sqoop Упражнения будут предоставлены для подготовки до участия в сертификации. Намерение курса состоит в том, чтобы повысить доверие к участию в сертификации. Кто целевая аудитория? Любой ИТ-аспирант / профессионал, желающий изучить Big Data и предоставить сертификацию CCA 175 Учебный план для этого курса Свернуть все 64 Лекции 12:02:42 - Введение 8:01 Введение 8:01 - Основы Scala 2:29:54 Введение 10:51 Настройка Scala 10:51 Основные конструкции программирования 18:53 функции 18:35 Объектно-ориентированные понятия - классы 17:42 Объектно-ориентированные концепции - объекты 13:02 Объектно-ориентированные концепции - примеры 11:14 Коллекции - Seq, Set и Map 8:56 Основные операции по сокращению карты 14:08 Настройка наборов данных для основных операций ввода-вывода 4:23 Основные операции ввода-вывода и использование API-интерфейсов Scala Collections 16:23 Кортеж 4:56 - Начиная 1:29:40 Введение и учебная программа 5:45 Настройка среды - параметры 1:45 Настройка среды - локально 2:03 Настройка среды - с помощью Cloudera Quickstart VM 7:22 Использование больших баз данных данных 9:00 Использование Windows - Putty и WinSCP 10:33 Использование Windows - Cygwin 14:46 Быстрый просмотр HDFS 20:24 Быстрый просмотр YARN 9:53 Настройка наборов данных 8:09 - Трансформация, этап и магазин - Искра 3:56:57 Введение 5:15 Введение в Spark 2:22 Краткий обзор документации Spark 4:49 Инициализация работы Spark с использованием искровой оболочки 18:39 Создание отказоустойчивых распределенных наборов данных (RDD) 13:40 Предварительный просмотр данных из RDD 17:57 Чтение различных форматов файлов - Краткий обзор с использованием JSON 9:34 Обзор трансформаций 4:02 Манипулирование строк как часть преобразований с использованием Scala 13:44 Преобразования уровня строки с использованием карты 18:09 Преобразования уровня строки с использованием flatMap 9:19 Фильтрация данных 18:03 Объединение наборов данных - внутреннее соединение 10:34 Объединение наборов данных - внешнее соединение 17:29 Агрегаты - Начало работы 4:07 Агрегации - использование действий (уменьшение и countByKey) 15:14 Агрегации - понимание объединителя 6:50 Агрегации с использованием groupByKey - наименее предпочтительный API для агрегирования 21:13 Агрегации с использованием reduceByKey 7:36 Агрегации с использованием aggregateByKey 18:21 - Анализ данных - Spark SQL или HiveQL с использованием Spark Context 3:58:10 Различные интерфейсы для запуска запросов на использование 9:25 Создание таблиц Hive и загрузка данных в текстовом формате 25:00 Создание таблиц Hive и загрузка данных в формате ORC 10:18 Использование искровой оболочки для запуска запросов или команд Hive 3:51 Функции - Начало работы 5:11 Функции - Манипулирование строк 22:23 Функции - Манипулирование датами 13:44 Функции - агрегации 5:49 Функции - CASE 14:10 Преобразования уровня строки 8:30 присоединяется 18:10 Скопления 11:41 Сортировка 7:27 Установить операции 5:39 Функции аналитики - агрегации 15:53 Функции аналитики - рейтинг 8:39 Оконные функции 7:48 Создание фрейма данных и регистрация в виде таблицы Temp 15:40 Написание приложений Spark SQL - данные процесса 8:38 Написание приложений Spark SQL - сохранение данных в таблицы Hive 7:20 Операции с кадрами данных 12:54 Swedish: CCA 175 - Spark and Hadoop Developer Certification - Scala Cloudera Certified Associate Spark and Hadoop Developer using Scala as Programming Language What Will I Learn? Entire curriculum of CCA Spark and Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames Streaming analytics using Kafka, Flume and Spark Streaming Requirements Laptop with 64 bit operating system and at least 4 GB RAM Basic programming skills Description Complete curriculum of CCA Spark and Hadoop Developer using Scala as Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL and Data Frames File formats Flume, Kafka and Spark Streaming Apache Sqoop Exercises will be provided to prepare before attending the certification. Intention of the course is to boost the confidence to attend the certification. Who is the target audience? Any IT aspirant/professional willing to learn Big Data and give CCA 175 certification Curriculum For This Course Collapse All 64 Lectures 12:02:42 – Introduction 08:01 Introduction 08:01 – Scala Fundamentals 02:29:54 Introduction 10:51 Setting up Scala 10:51 Basic Programming Constructs 18:53 Functions 18:35 Object Oriented Concepts - Classes 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Case Classes 11:14 Collections - Seq, Set and Map 08:56 Basic Map Reduce Operations 14:08 Setting up Data Sets for Basic I/O Operations 04:23 Basic I/O Operations and using Scala Collections APIs 16:23 Tuples 04:56 – Getting Started 01:29:40 Introduction and Curriculum 05:45 Setup Environment - Options 01:45 Setup Environment - Locally 02:03 Setup Environment - using Cloudera Quickstart VM 07:22 Using itversity's big data labs 09:00 Using Windows - Putty and WinSCP 10:33 Using Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Setup Data Sets 08:09 – Transform, Stage and Store - Spark 03:56:57 Introduction 05:15 Introduction to Spark 02:22 Quick overview about Spark documentation 04:49 Initializing Spark job using spark-shell 18:39 Create Resilient Distributed Data Sets (RDD) 13:40 Previewing data from RDD 17:57 Reading different file formats - Brief overview using JSON 09:34 Transformations Overview 04:02 Manipulating Strings as part of transformations using Scala 13:44 Row level transformations using map 18:09 Row level transformations using flatMap 09:19 Filtering the data 18:03 Joining data sets - inner join 10:34 Joining data sets - outer join 17:29 Aggregations - Getting Started 04:07 Aggregations - using actions (reduce and countByKey) 15:14 Aggregations - understanding combiner 06:50 Aggregations using groupByKey - least preferred API for aggregations 21:13 Aggregations using reduceByKey 07:36 Aggregations using aggregateByKey 18:21 – Data Analysis - Spark SQL or HiveQL using Spark Context 03:58:10 Different interfaces to run Hive queries 09:25 Create Hive tables and load data in text file format 25:00 Create Hive tables and load data in ORC file format 10:18 Using spark-shell to run Hive queries or commands 03:51 Functions - Getting Started 05:11 Functions - Manipulating Strings 22:23 Functions - Manipulating Dates 13:44 Functions - Aggregations 05:49 Functions - CASE 14:10 Row level transformations 08:30 Joins 18:10 Aggregations 11:41 Sorting 07:27 Set Operations 05:39 Analytics Functions - Aggregations 15:53 Analytics Functions - Ranking 08:39 Windowing Functions 07:48 Create Data Frame and Register as Temp table 15:40 Writing Spark SQL Applications - process data 08:38 Writing Spark SQL Applications - Save data into Hive tables 07:20 Data Frame Operations 12:54 Filipino: CCA 175 - Spark at Hadoop Developer Certification - Scala Cloudera Certified Associate Spark at Hadoop Developer gamit ang Scala bilang Programming Language Ano ang Matututuhan Ko? Buong kurikulum ng CCA Spark at Hadoop Developer Apache Sqoop HDFS Scala Fundamentals Core Spark - Transformations and Actions Spark SQL at Mga Frame ng Data Streaming analytics gamit ang Kafka, Flume at Spark Streaming Mga Kinakailangan Laptop na may 64 bit na operating system at hindi bababa sa 4 GB RAM Pangunahing kasanayan sa programming Paglalarawan Kumpletuhin ang kurikulum ng CCA Spark at Hadoop Developer gamit ang Scala bilang Programming Language Scala Fundamentals Core Spark - Transformations and Actions Spark SQL at Mga Frame ng Data Mga format ng file Flume, Kafka at Spark Streaming Apache Sqoop Ang mga pagsasanay ay ipagkakaloob upang maghanda bago dumalo sa sertipikasyon. Ang layunin ng kurso ay upang mapalakas ang tiwala na dumalo sa sertipikasyon. Sino ang target audience? Anumang IT aspirante / propesyonal na gustong matutunan ang Big Data at bigyan ang certification ng CCA 175 Kurikulum Para sa Kurso na Ito Tiklupin Lahat ng 64 Lektura 12:02:42 - Panimula 08:01 Panimula 08:01 - Scala Fundamentals 02:29:54 Panimula 10:51 Pag-set up Scala 10:51 Nagtatayo ang Pangunahing Programming 18:53 Mga Pag-andar 18:35 Object Oriented Concepts - Mga Klase 17:42 Object Oriented Concepts - Objects 13:02 Object Oriented Concepts - Mga Klase ng Kaso 11:14 Mga koleksyon - Seq, Set at Map 08:56 Pangunahing Mapa Bawasan ang Mga Operasyon 14:08 Pag-set up ng Data Sets para sa Basic I / O Operations 04:23 Basic I / O Operations at paggamit ng Scala Mga Koleksyon API 16:23 Tuples 04:56 - Nagsisimula 01:29:40 Panimula at Kurikulum 05:45 I-setup ang Kapaligiran - Mga Pagpipilian 01:45 I-setup ang Kapaligiran - Lokal 02:03 I-setup ang Kapaligiran - gamit ang Cloudera Quickstart VM 07:22 Paggamit ng malaking data laboratoryo ng labs 09:00 Paggamit ng Windows - Putty at WinSCP 10:33 Paggamit ng Windows - Cygwin 14:46 HDFS Quick Preview 20:24 YARN Quick Preview 09:53 Mga Setting ng Data Set 08:09 - Transform, Stage and Store - Spark 03:56:57 Panimula 05:15 Panimula sa Spark 02:22 Mabilis na pangkalahatang-ideya tungkol sa dokumentasyon ng Spark 04:49 Magsimula ng Spark na trabaho gamit ang spark-shell 18:39 Lumikha ng mga Resolente ng Mga Natukoy na Data Sets (RDD) 13:40 Pag-preview ng data mula sa RDD 17:57 Pagbabasa ng iba't ibang mga format ng file - Maikling pangkalahatang-ideya gamit ang JSON 09:34 Pangkalahatang-ideya ng Pagbabago 04:02 Manipulating Strings bilang bahagi ng transformations gamit ang Scala 13:44 Mga pagbabago sa antas ng hanay gamit ang mapa 18:09 Mga pagbabago sa hanay ng baraha gamit ang flatMap 09:19 Pag-filter ng data 18:03 Kasama ang mga hanay ng data - panloob na pagsali 10:34 Sumasali ang mga set ng data - panlabas na sumali 17:29 Mga Aggregation - Pagsisimula 04:07 Mga pagsasama - gamit ang mga pagkilos (bawasan at i-countByKey) 15:14 Mga pagsasama-sama - pag-unawa ng combiner 06:50 Mga pagsasama gamit ang groupByKey - hindi gaanong ginustong API para sa mga aggregation 21:13 Mga pagsasama gamit ang bawasanByKey 07:36 Mga pagsasama gamit ang aggregateByKey 18:21 - Pagsusuri ng Data - Spark SQL o HiveQL gamit ang Spark Context 03:58:10 Iba't ibang mga interface upang patakbuhin ang mga query na Hive 09:25 Gumawa ng mga pinagtitiwalaan na mga talahanayan at i-load ang data sa format ng file ng teksto 25:00 Lumikha ng mga pinagtitiwalaan na talahanayan at data ng pag-load sa format ng file ng ORC 10:18 Paggamit ng spark-shell upang patakbuhin ang mga query sa pinagtitipunan o mga command 03:51 Mga Pag-andar - Pagsisimula 05:11 Function - Manipulating Strings 22:23 Function - Manipulating Mga Petsa 13:44 Mga Pag-andar - Mga Pagsasama-sama 05:49 Mga Function - KASO 14:10 Mga pagbabagong antas ng hanay 08:30 Sumasali 18:10 Mga Pagsasama-sama 11:41 Pag-aayos 07:27 Itakda Operations 05:39 Mga Pag-andar ng Analytics - Mga Pagsasama-sama 15:53 Mga Function ng Analytics - Ranking 08:39 Nagniningning na Mga Pag-andar 07:48 Lumikha ng Data Frame at Magparehistro bilang Temp table 15:40 Pagsulat Spark SQL Applications - proseso ng data 08:38 Pagsulat Spark SQL Mga Application - I-save ang data sa mga table na pinagtitipunan 07:20 Mga Operasyong Mga Frame ng Data 12:54 Turkish: CCA 175 - Spark ve Hadoop Geliştirici Sertifikası - Scala Cloudera Sertifikalı Associate Spark ve Hadoop Developer, Scala'yı Programlama Dili olarak kullanıyor Ne Öğreneceğim? CCA Spark ve Hadoop Geliştiricisinin tüm müfredatı Apache Sqoop HDF'ler Scala Temelleri Temel Spark - Dönüşümler ve İşlemler Spark SQL ve Veri Çerçeveleri Kafka, Flume ve Spark Streaming'i kullanarak akan analizler Gereksinimler 64 bit işletim sistemi ve en az 4 GB RAM bulunan dizüstü bilgisayar Temel programlama becerileri Açıklama Scala'yı Programlama Dili olarak kullanarak CCA Spark ve Hadoop Developer'ın tamamlanmış müfredatı Scala Temelleri Temel Spark - Dönüşümler ve İşlemler Spark SQL ve Veri Çerçeveleri Dosya biçimleri Flume, Kafka ve Spark Streaming Apache Sqoop Sertifikaya katılmadan önce hazırlık çalışmaları yapılacaktır. Kursun amacı, sertifikaya katılmak için verilen güvenin artırılmasıdır. Hedef kitle kimdi? Büyük Verileri öğrenmek ve CCA 175 sertifikası vermek isteyen herhangi bir BT istekli / profesyonel Bu Ders İçin Müfredat Hepsini Collapse 64 Teorik Dersler 00:02:42 - Giriş 08:01 Giriş 08:01 - Scala Temelleri 02:29:54 Giriş 10:51 Scala kurulumu 10:51 Temel Programlama Yapılar 18:53 Fonksiyonlar 18:35 Nesneye Yönelik Kavramlar - Sınıflar 17:42 Nesneye Yönelik Kavramlar - Nesneler 13:02 Nesneye Yönelik Kavramlar - Vaka Sınıfları 11:14 Koleksiyonlar - Sıra, Set ve Harita 08:56 Temel Harita Azaltma İşlemleri 14:08 Temel G / Ç İşlemleri için Veri Kümelerini Ayarlama 04:23 Temel G / Ç İşlemleri ve Scala Koleksiyon API'larını kullanma 16:23 Demetler 04:56 - Başlamak 01:29:40 Giriş ve Müfredat 05:45 Kurulum Ortamı - Seçenekler 01:45 Kurulum Ortamı - Yerel Olarak 02:03 Kurulum Ortamı - Cloudera Hızlı Başlangıç VM'sini kullanma 07:22 Itversity'nin büyük veri laboratuvarlarını kullanma 09:00 Windows - Putty ve WinSCP'yi kullanma 10:33 Windows'u Kullanma - Cygwin 14:46 HDFS Hızlı Önizleme 20:24 YARN Hızlı Önizleme 09:53 Veri Kümelerini Ayarlayın 08:09 - Dönüştürme, Sahne ve Mağaza - Kıvılcım 03:56:57 Giriş 05:15 Kıvılcıma Giriş 02:22 Kıvılcım belgeleri hakkında hızlı gözden geçirme 04:49 Kıvılcım kabuğunu kullanarak Kıvılcım işi başlatılıyor 18:39 Esnek Dağıtılmış Veri Kümeleri (RDD) Yaratın 13:40 RDD'den veri önizleme 17:57 Farklı dosya biçimlerini okuma - JSON'u kullanarak kısa genel bakış 09:34 Dönüşümlere Genel Bakış 04:02 Dize kullanarak Dönüşümlerin bir parçası olarak Dizelerin Değiştirilmesi 13:44 Harita kullanılarak satır düzeyi dönüşümleri 18:09 FlatMap'i kullanarak satır düzeyi dönüşümleri 09:19 Verileri filtreleme 18:03 Veri takımlarına katılmak - iç birleşim 10:34 Veri takımlarına katılma - dışa katılma 17:29 Topluluklar - Başlarken 04:07 Toplama - eylemler kullanma (reduce ve countByKey) 15:14 Topluluklar - birleştiriciyi anlama 06:50 GrupByKey kullanan topluluklar - topluluklar için en az tercih edilen API 21:13 ReduceByKey kullanan topluluklar 07:36 AggregateByKey kullanan toplamalar 18:21 - Veri Analizi - Kıvılcım Bağlamını Kullanan Spark SQL veya HiveQL 03:58:10 Kovan sorgularını çalıştırmak için farklı arayüzler 09:25 Kovan tabloları oluşturun ve verileri metin dosyası biçiminde yükleyin 25:00 Kovan tabloları oluşturun ve ORC dosya formatında veri yükleyin 10:18 Kıvılcım kabuğunu kullanarak Hive sorguları veya komutları çalıştırmak 03:51 İşlevler - Başlarken 05:11 İşlevler - Dizeleri Değiştirme 22:23 Fonksiyonlar - Tarihleri Değiştirme 13:44 Fonksiyonlar - Agregasyonlar 05:49 İşlevler - CASE 14:10 Satır düzeyi dönüşümleri 08:30 Katıldı 18:10 toplamaları 11:41 sınıflandırma 07:27 İşlemleri Ayarla 05:39 Analitik Fonksiyonlar - Agregasyonlar 15:53 Analiz Fonksiyonları - Sıralama 08:39 Pencereleme İşlevleri 07:48 Veri Çerçevesi Oluştur ve Sıcaklık tablosu olarak kaydet 15:40 Spark SQL Uygulamaları Yazma - işlem verileri 08:38 Spark SQL Uygulamaları Yazma - Verileri Kovan tablolara kaydetme 07:20 Veri Çerçeve İşlemleri 00:54 Ukrainian: CCA 175 - сертифікація розробників Spark та Hadoop - Scala Cloudera Certified Associate Spark та Hadoop Developer, використовуючи Scala як мову програмування Що я буду вчитися? Весь навчальний план розробника ССА Іскра та Hadoop Apache Sqoop HDFS Основи Scala Основна Іскра - Трансформації та Дії Spark SQL і Data Frames Потокове аналітика за допомогою Кафки, Flume та Іскра потоку Вимоги Ноутбук з 64-розрядною операційною системою і щонайменше 4 Гб оперативної пам'яті Основні навички програмування Опис Заповніть навчальний план розробника ССА Іскр та Hadoop, використовуючи Scala як мову програмування Основи Scala Основна Іскра - Трансформації та Дії Spark SQL і Data Frames Формати файлів Flume, Kafka та Spark Streaming Apache Sqoop Вправи будуть підготовлені до участі в сертифікації. Метою курсу є підвищення довіри до участі в сертифікації. Хто така цільова аудиторія? Будь-який претендент / професіонал, який бажає навчитися великим даним та надати сертифікат CCA 175 Навчальний план для цього курсу Згорнути всі 64 лекції 12:02:42 - Вступ 08:01 Вступ 08:01 - Основи Scala 02:29:54 Вступ 10:51 Налаштування Scala 10:51 Основні конструювання програм 18:53 Функції 18:35 Об'єктно-орієнтовані поняття - класи 17:42 Об'єктно-орієнтовані поняття - об'єкти 13:02 Об'єктно-орієнтовані поняття - Класифікатори справ 11:14 Колекції - Seq, Set і Map 08:56 Основна карта зменшує операції 14:08 Налаштування наборів даних для основних операцій вводу-виводу 04:23 Основні операції вводу-виводу та використання API-кодів Scala 16:23 Кортежі 04:56 - Починаємо 01:29:40 Вступ та навчальна програма 05:45 Налаштування оточення - Параметри 01:45 Налаштування середовища - локально 02:03 Налаштування середовища - використання Cloudera Quickstart VM 07:22 Використовуючи його великі лабораторії даних 09:00 Використання Windows - Putty і WinSCP 10:33 Використання Windows - Cygwin 14:46 Швидкий попередній перегляд HDFS 20:24 YARN Швидкий перегляд 09:53 Набір наборів даних 08:09 - Трансформація, сцена та магазин - Іскра 03:56:57 Вступ 05:15 Введення в Іскра 02:22 Швидкий огляд Іскра документації 04:49 Ініціалізація роботи Іскри за допомогою іскрової оболонки 18:39 Створення стійких розподільних наборів даних (RDD) 13:40 Попередній перегляд даних з RDD 17:57 Читання різних форматів файлів - Короткий огляд за допомогою JSON 09:34 Огляд трансформацій 04:02 Маніпулювання рядків як частина перетворень за допомогою Scala 13:44 Рівень перетворень рівня, використовуючи карту 18:09 Рівень перетворень рівня, використовуючи FlatMap 09:19 Фільтрування даних 18:03 Об'єднання наборів даних - внутрішнє об'єднання 10:34 Об'єднати набори даних - зовнішнє об'єднання 17:29 Агрегації - Початок роботи 04:07 Агрегації - використання дій (зменшувати і підраховувати ByKey) 15:14 Агрегації - розуміння комбайнера 06:50 Агрегації, що використовують groupByKey - найменш бажаний API для агрегації 21:13 Агрегації з використанням reduceByKey 07:36 Агрегації, що використовують aggregateByKey 18:21 - Аналіз даних - Spark SQL або HiveQL, використовуючи Spark Context 03:58:10 Різні інтерфейси для запуску запитів Hive 09:25 Створіть таблицю лялець і завантажте дані у форматі текстових файлів 25:00 Створіть таблиці та завантажуйте таблиці у форматі ORC 10:18 Використання іскра-оболонки для запуску запитів Hive або команд 03:51 Функції - Початок роботи 05:11 Функції - маніпулювання рядками 22:23 Функції - маніпулювання датами 13:44 Функції - агрегації 05:49 Функції - CASE 14:10 Рівень перетворень рівня 08:30 Приєднується 18:10 Агрегати 11:41 Сортування 07:27 Встановити операції 05:39 Функції аналізу - агрегації 15:53 Функції Analytics - рейтинг 08:39 Відновлювальні функції 07:48 Створити рамку даних і зареєструвати як таблицю Temp 15:40 Написання Spark SQL Applications - обробка даних 08:38 Написання Spark SQL Applications - Збереження даних у таблицях вуликів 07:20 Операції з кадрами даних 12:54 Urdu: سی سی اے 175 - چمک اور ہڈپ ڈویلپر سرٹیفکیشن - سکالا Cloudera مصدقہ ایسوسی ایٹ چمک اور Hadoop ڈویلپر پروگرامنگ زبان کے طور پر سکالا کا استعمال کرتے ہوئے میں جانتا ہوں کیا سی سی اے چمک اور ہاسپپ ڈویلپر کا مکمل نصاب اپاچی Sqoop ایچ ڈی ایف ایس سکالا بنیادیں کور چکن - تبدیلی اور عمل ایس ایچ پی اور ڈیٹا فریم چکر کریں کاافکا، پھول اور چمک سٹریمنگ کا استعمال کرتے ہوئے تجزیہ کاری سٹریمنگ ضروریات لیپ ٹاپ 64 بٹ آپریٹنگ سسٹم اور کم از کم 4 GB رام بنیادی پروگرامنگ کی مہارت تفصیل پروگرامنگ زبان کے طور پر سکالا کا استعمال کرتے ہوئے سی سی اے چمک اور ہڈپپ ڈویلپر کا مکمل نصاب سکالا بنیادیں کور چمک - تبدیلیوں اور عمل ایس ایچ پی اور ڈیٹا فریم چکر کریں فائل فارمیٹس فلوم، کافکا اور چمک سٹریمنگ اپاچی Sqoop سرٹیفکیشن میں شرکت کرنے سے پہلے تیار کرنے کیلئے مشقیں فراہم کی جائیں گی. کورس کا ارادہ یہ ہے کہ اس اعتماد کو فروغ دینے کے لئے تصدیق کو فروغ ملے. ہدف کے سامعین کون ہیں؟ کسی بھی ایسوسی ایٹنٹ / پیشہ ورانہ بگ ڈیٹا سیکھنے اور سی سی اے 175 سرٹیفیکیشن دینے کے لئے تیار ہیں نصاب اس کورس کے لئے تمام 64 لیکچرز کو ختم کریں 12:02:42 - تعارف 08:01 تعارف 08:01 - سکالا بنیادیں 02:29:54 تعارف 10:51 سکالا کی ترتیب 10:51 بنیادی پروگرامنگ تشکیل 18:53 افعال 18:35 آبجیکٹ اورینٹل شدہ مواقع - کلاس 17:42 آبجیکٹ اورینٹل شدہ مواقع - آبجیکٹ 13:02 آبجیکٹ اورینٹل شدہ مواقع - کیس کلاس 11:14 مجموعہ - سیق، سیٹ اور نقشہ 08:56 بنیادی نقشہ آپریشنز کو کم کر دیتا ہے 14:08 بنیادی I / O آپریشنز کے لئے ڈیٹا سیٹ قائم کرنا 04:23 بنیادی I / O آپریشنز اور اسکالہ آرکائیو APIs کا استعمال کرتے ہوئے 16:23 Tuples 04:56 - شروع ہوا چاہتا ہے 01:29:40 تعارف اور نصاب 05:45 سیٹ اپ ماحولیات - اختیارات 01:45 سیٹ اپ ماحولیات - مقامی طور پر 02:03 سیٹ اپ ماحولیات - کلڈرہ ریستورٹارٹ VM کا استعمال کرتے ہوئے 07:22 اسورٹرٹی کے بڑے ڈیٹا لیب کا استعمال کرتے ہوئے 09:00 ونڈوز کا استعمال کرتے ہوئے - پوٹ اور ون ایس سی پی 10:33 ونڈوز کا استعمال کرتے ہوئے - سائگون 14:46 ایچ ڈی ایف ایس فوری پیش نظارہ 20:24 YARN فوری پیش نظارہ 09:53 سیٹ اپ ڈیٹا سیٹ 08:09 - ٹرانسمیشن، اسٹیج اور اسٹور - چمک 03:56:57 تعارف 05:15 چمک کا تعارف 02:22 چمک دستاویزات کے بارے میں فوری جائزہ 04:49 چمک شیل کا استعمال کرتے ہوئے چمک کام شروع کرنا 18:39 مستحکم تقسیم شدہ ڈیٹا سیٹ (آر ڈی ڈی ڈی) بنائیں 13:40 RDD سے ڈیٹا پیش نظارہ 17:57 مختلف فائل فارمیٹس پڑھنا - JSON کا استعمال کرتے ہوئے مختصر جائزہ 09:34 تبدیلی کا جائزہ 04:02 سکالہ کا استعمال کرتے ہوئے تبدیلیوں کے حصے کے طور پر جوڑی پھانسی 13:44 نقشے کا استعمال کرتے ہوئے صف سطح کی تبدیلیوں 18:09 فلیٹ میپ کا استعمال کرتے ہوئے صف سطح کی تبدیلیوں 09: 1 9 ڈیٹا فلٹرنگ 18:03 ڈیٹا سیٹ میں شمولیت - اندرونی شمولیت 10:34 ڈیٹا سیٹ میں شامل ہونا - بیرونی شامل 17:29 مجموعات - شروع کرنا 04:07 مجموعی طور پر - کارروائیوں کا استعمال کرتے ہوئے (کم کرنے اور شمار کرنا بیککی) 15:14 مجموعی طور پر - مشترکہ کنکر 06:50 گروپ بکی کا استعمال کرتے ہوئے مجموعی - مجموعی طور پر ترجیحی API کے مجموعوں کے لئے 21:13 بکی کو کم کرنے کا استعمال کرتے ہوئے مجموعی 07:36 مجموعی بکی کا استعمال کرتے ہوئے مجموعی 18:21 - اعداد و شمار تجزیہ - چنگاری کے مضامین کا استعمال کرتے ہوئے ایس ایس ایس ایس یا ہائیوآئپی 03:58:10 ہائ سوالوں کو چلانے کے لئے مختلف انٹرفیس 09:25 ہائ میزیں بنائیں اور ٹیکسٹ فائل کی شکل میں ڈیٹا لوڈ کریں 25:00 ORC فائل کی شکل میں ہائ میزیں اور ڈیٹا کو لوڈ کریں 10:18 ہائ سوالات یا حکموں کو چلانے کے لئے چمک شیل کا استعمال کرتے ہوئے 03:51 افعال - شروع کرنا 05:11 افعال - مینیپولٹنگ سٹرنگ 22:23 افعال - مسمار کرنے کا تاریخ 13:44 افعال - مجموعات 05:49 افعال - کیس 14:10 صف سطح کی تبدیلیوں 08:30 جیتتا ہے 18:10 مجموعی 11:41 ترتیب دیں 07:27 آپریشنز مقرر کریں 05:39 تجزیہ افعال - مجموعات 15:53 تجزیہ افعال - درجہ بندی 08:39 واشنگڈنگ افعال 07:48 ڈیٹا فریم بنائیں اور ٹیپ ٹیبل کے طور پر رجسٹر کریں 15:40 لکھنا چمک SQL اپلی کیشن - عمل کے اعداد و شمار 08:38 سپارک SQL SQL ایپلی کیشنز لکھتے ہیں - ڈیٹا کو ہائ میزوں میں محفوظ کریں 07:20 ڈیٹا فریم آپریشنز 12:54 Uzbek: CCA 175 - Spark va Hadoop Developer Certification - Scala Scula dasturlash tili sifatida Cloudera Certified Associate Spark va Hadoop Developer Men nimani bilib olaman? CCA Spark va Hadoop Developerning barcha o'quv dasturi Apache Sqoop HDFS Scala asoslari Core Spark - konvertatsiya qilish va harakatlar Spark SQL va ma'lumotlar ramkalari Kafka, Flume va Spark oqimi yordamida analitik oqim Talablar 64-bitli operatsion tizim va kamida 4 Gbayt operativ xotira bilan ishlaydigan noutbuk Asosiy dasturiy ko'nikmalar Ta'rif Scala dasturlash tili sifatida CCA Spark va Hadoop Developerni to'liq o'quv dasturi Scala asoslari Core Spark - konvertatsiya qilish va harakatlar Spark SQL va ma'lumotlar ramkalari Fayl formatlari Flume, Kafka va Spark oqimlari Apache Sqoop Mashg'ulotlar sertifikatlashdan oldin tayyorgarlik ko'rish uchun beriladi. Kursning maqsadi - sertifikatlashtirishda ishtirok etishga bo'lgan ishonchni kuchaytirish. Maqsadli auditoriya kimlar? Katta ma'lumotni o'rganish va CCA 175 sertifikatini berishga tayyor bo'lgan har qanday IT aspiranti / mutaxassis Ushbu kurs uchun o'quv rejasi Hammasi 64 mashg'ulotni ixchamlashtirish 12:02:42 - Kirish 08:01 Kirish 08:01 - Scala asoslari 02:29:54 Kirish 10:51 Scala-ni o'rnatish 10:51 Asosiy dasturlash usuli 18:53 Vazifalar 18:35 Ob'ektga yo'naltirilgan tushunchalar - sinflar 17:42 Ob'ektga yo'naltirilgan tushunchalar - ob'ektlar 13:02 Ob'ektga yo'naltirilgan tushunchalar - amaliy mashg'ulotlar 11:14 Koleksiyonlar - Seq, Set va Map 08:56 Asosiy Xarita qisqartirish operatsiyalari 14:08 Asosiy I / U operatsiyalari uchun ma'lumotlar to'plamlarini o'rnatish 04:23 Asosiy I / U operatsiyalari va Scala Koleksiyonlar API-dan foydalanish 16:23 Tupllar 04:56 - Ishni boshlash 01:29:40 Kirish va o'quv rejasi 05:45 O'rnatish muhiti - Tanlovlar 01:45 O'rnatish muhiti - Mahalliy 02:03 O'rnatish muhiti - Cloudera Quickstart VM yordamida 07:22 Qabul qilishning katta ma'lumot laboratoriyalaridan foydalanish 09:00 Windows-dan foydalanish - Putty va WinSCP 10:33 Windows-dan foydalanish - Cygwin 14:46 HDFS Tez Ko'rib chiqish 20:24 YARN Tez Ko'rib chiqish 09:53 Ma'lumotlar to'plamini sozlash 08:09 - Transform, sahna va do'kon - Spark 03:56:57 Kirish 05:15 Sparkga kirish 02:22 Spark hujjatlari haqida qisqa ma'lumot 04:49 Spark-shell-dan foydalanib Spark ishini boshlash 18:39 Ruxsat etilgan tarqalgan ma'lumotlar to'plamlarini yaratish (RDD) 13:40 RDD dan ma'lumotlarni oldindan ko'rish 17:57 Turli fayl formatlarini o'qish - JSON yordamida qisqacha ko'rib chiqish 09:34 Transformatsiyalarga umumiy nuqtai 04:02 Scala yordamida o'zgarishlarning bir qismi sifatida satrlarni tahrirlash 13:44 Xaritani foydalanib, satr darajasidagi o'zgarishlar 18:09 FlatMap yordamida satr darajasidagi o'zgarishlar 09:19 Ma'lumotlarni filtrlash 18:03 Ma'lumotlar to'plamlarini birlashtirish - ichki qo'shilish 10:34 Ma'lumotlar to'plamlarini birlashtirish - tashqi qo'shilish 17:29 Birlashmalar - Ishga kirishish 04:07 Birlashmalar - harakatlardan foydalanish (kamaytirish va hisoblashByKey) 15:14 Birlashmalar - tushunarli birlashtiruvchi 06:50 GroupByKey - to'plamlar uchun kamida afzal qilingan API ishlatadigan to'plamlar 21:13 Birgalikda ishlatiladigan agregatlarByKey 07:36 AggregateByKey yordamida agregatlar 18:21 - Ma'lumotlarni tahlil qilish - Spark SQL yoki HiveQLni Spark kontekstidan foydalanib qilish 03:58:10 Hive so'rovlarini bajarish uchun turli interfeyslar 09:25 Hive jadvallarini yaratish va ma'lumotlarni matnli fayl formatida yuklash 25:00 Hive jadvali yaratish va ma'lumotlarni ORC fayl formatida yuklash 10:18 Hive so'rovlarini yoki buyruqlar ishlatish uchun uchqunli qobiqdan foydalanish 03:51 Vazifalar - Ishga kirishish 05:11 Vazifalar - satrlarni o'zgartirish 22:23 Vazifalar - Manipulyatsiya sanalari 13:44 Vazifalar - to'plamlar 05:49 Vazifalar - CASE 14:10 Satr darajasidagi o'zgarishlar 08:30 Birlashadi 18:10 Birlashmalar 11:41 Tartiblash 07:27 Operatsiyalarni o'rnatish 05:39 Tahlil funktsiyalari - to'plamlar 15:53 Tahlil funktsiyalari - reyting 08:39 Windowing vazifalari 07:48 Ma'lumotlar bazasini yaratish va Temp jadval sifatida ro'yxatdan o'tkazish 15:40 Spark SQL ilovalarini yozish - jarayon ma'lumoti 08:38 Spark SQL ilovalarini yozish - ma'lumotlarni Hive jadvallariga saqlash 07:20 Ma'lumot paneli operatsiyalari 12:54 Vietnamese: CCA 175 - Xác nhận của Spark và Hadoop Developer - Scala Cloudera Certified Associate Spark và Hadoop Developer sử dụng Scala làm Ngôn ngữ lập trình Tôi sẽ học những gì? Toàn bộ chương trình giảng dạy của CCA Spark và nhà phát triển Hadoop Apache Sqoop HDFS Scala Fundamentals Core Spark - Chuyển đổi và Hành động Spark SQL và khung dữ liệu Phân tích trực tuyến sử dụng Kafka, Flume và Spark Streaming Yêu cầu Máy tính xách tay với hệ điều hành 64 bit và ít nhất 4 GB RAM Kỹ năng lập trình cơ bản Sự miêu tả Hoàn thành chương trình giảng dạy của CCA Spark và Hadoop Developer sử dụng Scala như Ngôn ngữ lập trình Scala Fundamentals Core Spark - Chuyển đổi và Hành động Spark SQL và khung dữ liệu Định dạng tệp Flume, Kafka và Spark Streaming Apache Sqoop Các bài tập sẽ được cung cấp để chuẩn bị trước khi tham gia chứng nhận. Mục đích của khóa học là để tăng sự tự tin để tham dự chứng nhận. các đối tượng mục tiêu là ai? Bất kỳ CNTT aspirant / chuyên nghiệp sẵn sàng để học Big dữ liệu và cung cấp cho CCA 175 chứng nhận Chương trình giảng dạy cho khóa học này Thu gọn Tất cả 64 Bài giảng 12:02:42 - Giới thiệu 08:01 Giới thiệu 08:01 - Scala Fundamentals 02:29:54 Giới thiệu 10:51 Thiết lập Scala 10:51 Cấu trúc Lập trình cơ bản 18:53 Chức năng 18:35 Khái niệm Khái niệm Đối tượng - Các lớp học 17:42 Khái niệm Khái niệm Đối tượng - Đối tượng 13:02 Khái niệm Khái niệm Đối tượng - Lớp học của Trường hợp 11:14 Bộ sưu tập - Bộ Seq, Set và Bản đồ 08:56 Bản đồ cơ bản Giảm hoạt động 14:08 Thiết lập bộ dữ liệu cho các hoạt động I / O cơ bản 04:23 Các hoạt động I / O cơ bản và sử dụng các API Bộ sưu tập Scala 16:23 Tuples 04:56 - Bắt đầu 01:29:40 Giới thiệu và Chương trình giảng dạy 05:45 Thiết lập Môi trường - Lựa chọn 01:45 Thiết lập Môi trường - Địa phương 02:03 Thiết lập môi trường - sử dụng Cloudera Quickstart VM 07:22 Sử dụng phòng thí nghiệm dữ liệu lớn của itversity 09:00 Sử dụng Windows - Putty và WinSCP 10:33 Sử dụng Windows - Cygwin 14:46 HDFS Xem trước nhanh 20:24 YARN Xem trước nhanh 09:53 Thiết lập tập dữ liệu 08:09 - Chuyển đổi, Giai đoạn và Store - Spark 03:56:57 Giới thiệu 05:15 Giới thiệu Spark 02:22 Tổng quan nhanh về tài liệu của Spark 04:49 Khởi tạo công việc Spark bằng cách sử dụng tia lửa 18:39 Tạo bộ dữ liệu phân tán khả năng phục hồi (RDD) 13:40 Xem trước dữ liệu từ RDD 17:57 Đọc các định dạng tệp khác nhau - Tóm tắt tổng quan sử dụng JSON 09:34 Tổng quan Chuyển đổi 04:02 Thao tác chuỗi như một phần của phép biến đổi bằng cách sử dụng Scala 13:44 Chuyển đổi cấp độ hàng bằng cách sử dụng bản đồ 18:09 Chuyển đổi mức hàng bằng cách sử dụng flatMap 09:19 Lọc dữ liệu 18:03 Tham gia bộ dữ liệu - tham gia bên trong 10:34 Tham gia bộ dữ liệu - tham gia bên ngoài 17:29 Aggregations - Bắt đầu 04:07 Aggregations - sử dụng các hành động (giảm và countByKey) 15:14 Aggregations - hiểu biết kết hợp 06:50 Tập hợp sử dụng nhómByKey - API ưa thích ít nhất cho các tập hợp 21:13 Tổng hợp bằng cách sử dụng reduceByKey 07:36 Tổng hợp sử dụng tổng hợpByKey 18:21 - Phân tích dữ liệu - Spark SQL hoặc HiveQL sử dụng Bối cảnh Spark 03:58:10 Các giao diện khác nhau để chạy truy vấn Hive 09:25 Tạo bảng Hive và tải dữ liệu ở định dạng tệp văn bản 25:00 Tạo bảng Hive và tải dữ liệu theo định dạng tệp ORC 10:18 Sử dụng tia lửa để chạy các truy vấn Hive hoặc các lệnh 03:51 Chức năng - Bắt đầu 05:11 Chức năng - Thao tác Strings 22:23 Chức năng - Thao tác Ngày 13:44 Chức năng - Aggregations 05:49 Chức năng - CASE 14:10 Chuyển đổi cấp bậc 08:30 Tham gia 18:10 Tổng hợp 11:41 Phân loại 07:27 Đặt hoạt động 05:39 Chức năng Analytics - Tổng hợp 15:53 Chức năng Analytics - Xếp hạng 08:39 Chức năng Windowing 07:48 Tạo Khung Dữ liệu và Đăng ký như Bảng Nhiệt độ 15:40 Viết Spark SQL Applications - xử lý dữ liệu 08:38 Viết các ứng dụng SQL Spark - Lưu dữ liệu vào các bảng Hive 07:20 Khung Khung Dữ liệu 12:54 Chinese: CCA 175 - Spark和Hadoop开发者认证 - Scala Cloudera认证助理Spark和Hadoop Developer使用Scala作为编程语言 我会学什么? CCA Spark和Hadoop Developer的完整课程 Apache Sqoop HDFS Scala基础 核心火花 - 变革与行动 Spark SQL和数据帧 使用Kafka,Flume和Spark Streaming进行流式分析 要求 笔记本电脑具有64位操作系统和至少4 GB RAM 基本的编程技巧 描述 使用Scala作为编程语言的CCA Spark和Hadoop Developer的完整课程 Scala基础 核心火花 - 变革与行动 Spark SQL和数据帧 文件格式 水槽,卡夫卡和火花流 Apache Sqoop 在参加认证之前,将提供练习准备。课程意图是提高参加认证的信心。 谁是目标受众? 任何IT志愿者/专业人士愿意学习大数据并给予CCA 175认证 本课程课程 全部64个讲座 12时02分42秒 - 介绍 08:01 介绍 08:01 - Scala基础 2点29分54秒 介绍 10:51 设置Scala 10:51 基本编程构造 18:53 功能 18:35 面向对象的概念 - 类 17:42 面向对象的概念 - 对象 13时02分 面向对象的概念 - 案例类 11:14 集合 - Seq,集合和地图 08:56 基本地图减少操作 14:08 设置基本I / O操作的数据集 04:23 基本I / O操作和使用Scala Collections API 16:23 元组 04:56 - 入门 1时29分40秒 导论与课程 05:45 安装环境 - 选项 01:45 安装环境 - 本地 02:03 安装环境 - 使用Cloudera Quickstart VM 07:22 使用itversity的大数据实验室 09:00 使用Windows - Putty和WinSCP 10:33 使用Windows - Cygwin 14:46 HDFS快速预览 20:24 YARN快速预览 09:53 安装数据集 08:09 - 变形,舞台和商店 - 火花 3时56分57秒 介绍 05:15 火花简介 02:22 关于Spark文档的快速概述 04:49 使用spark-shell初始化Spark作业 18:39 创建弹性分布式数据集(RDD) 13:40 从RDD预览数据 17:57 阅读不同的文件格式 - 使用JSON简要概述 09:34 转换概述 04:02 操作字符串作为使用Scala的转换的一部分 13:44 使用地图的行级变换 18:09 使用flatMap进行行级转换 09:19 过滤数据 18:03 连接数据集 - 内部连接 10:34 连接数据集 - 外连接 17:29 聚合 - 入门 04:07 聚合 - 使用动作(reduce和countByKey) 15:14 聚合 - 理解组合器 06:50 使用groupByKey的聚合 - 聚合中最不喜欢的API 21:13 使用reduceByKey的聚合 07:36 使用aggregateByKey的聚合 18:21 - 数据分析 - Spark SQL或HiveQL使用Spark上下文 三点58分10秒 不同的接口运行Hive查询 09:25 创建Hive表并以文本文件格式加载数据 25:00 创建Hive表并以ORC文件格式加载数据 10:18 使用spark-shell运行Hive查询或命令 03:51 功能 - 入门 05:11 功能 - 操作字符串 22:23 功能 - 操作日期 13:44 功能 - 聚合 05:49 功能 - CASE 14:10 行级转换 08:30 加盟 18:10 聚合 11:41 排序 07:27 设置操作 05:39 分析功能 - 聚合 15:53 分析功能 - 排名 08:39 窗口功能 07:48 创建数据帧并注册为Temp表 15:40 编写Spark SQL应用程序 - 处理数据 08:38 编写Spark SQL应用程序 - 将数据保存到Hive表中 07:20 数据帧操作 12:54" Ref.: https://www.udemy.com/cca-175-spark-and-hadoop-developer-certification-scala/

Now

UDEMY FREE COURSES
LEGAL INFO: Advertiser: UDEMY - Links are deep linked based on affiliate relationship with Udemy.


LEGAL: Links are deep linked and linked based on affiliate relationship with advertisers.

Advertiser: 1&1 Internet Inc., RoseGal, FocalPrice, Daily Steals, The iPage Affiliate Program, FashionMia, Skyscanner USA
Get It Free All Gadgets Under $2 Daily Steals Up to 95% Off! 1and1.com | Hosting, Domains, Website Services & Servers iPage site builder banner
Afghanistan Albania Algeria Andorra Angola Antigua and Barbuda Argentina Armenia Aruba Australia Austria Azerbaijan Bahama Bahrain Bangladesh Barbados Belarus Belgium Belize Benin Bhutan Bolivia Bosnia and Herzegovina Botswana Brazil Brunei Bulgaria Burkina Faso Burma Burundi Cambodia Cameroon Canada Cabo Verde Central African Republic Chad Chile China Colombia Comoros Congo, Democratic Republic of the Congo, Republic of the Costa Rica Cote d'Ivoire Croatia Cuba Curacao Cyprus Czechia Denmark Djibouti Dominica Dominican Republic East Timor Ecuador Egypt El Salvador Equatorial Guinea Eritrea Estonia Ethiopia Fiji Finland France Gabon Gambia Georgia Germany Ghana Greece Grenada Guatemala Guinea Guinea-Bissau Guyana Haiti Holy See Honduras Hong Kong Hungary Iceland India Indonesia Iran Iraq Ireland Israel Italy Jamaica Japan Jordan Kazakhstan Kenya Kiribati Korea, North Korea, South Kosovo Kuwait Kyrgyzstan Laos Latvia Lebanon Lesotho Liberia Libya Liechtenstein Lithuania Luxembourg Macau Macedonia Madagascar Malawi Malaysia Maldives Mali Malta Marshall Islands Mauritania Mauritius Mexico Micronesia Moldova Monaco Mongolia Montenegro Morocco Mozambique Namibia Nauru Nepal Netherlands New Zealand Nicaragua Niger Nigeria Norway Oman Pakistan Palau Panama Papua New Guinea Paraguay Peru Philippines Poland Portugal Qatar Romania Russia Rwanda Saint Kitts and Nevis Saint Lucia Saint Vincent and the Grenadines Samoa San Marino Sao Tome and Principe Saudi Arabia Senegal Serbia Seychelles Sierra Leone Singapore Sint Maarten Slovakia Slovenia Solomon Islands Somalia South Africa South Korea South Sudan Spain Sri Lanka Sudan Suriname Swaziland Sweden Switzerland Syria Taiwan Tajikistan Tanzania Thailand Timor-Leste Togo Tonga Trinidad and Tobago Tunisia Turkey Turkmenistan Tuvalu Uganda Ukraine United Arab Emirates United Kingdom Uruguay Uzbekistan Vanuatu Venezuela Vietnam Yemen Zambia Zimbabwe Udemy, Online Course, Free Coupon Code, Gratis, Gratuit, Frei, Gratuito, 無料, Course, Arabic: على الانترنت بالطبع، أوديمي، رمز القسيمة الحرة، دورة على شبكة الإنترنت مجانا، مجانا أوديمي رمز القسيمة، أوديمي الحرة رمز القسيمة، حر، غراتشويت، فري، غراتويتو، 無 料، دوره آنلاین، Udemy، کد کوپن رایگان، دوره آنلاین رایگان، رایگان کد کوپن، رایگان کد کوپن، رایگان، Gratuit، Frei، Gratuito، 無 料، دوره، kurssi, Vapaa kuponki koodi, Ilmainen kurssi, Ilmainen kuponkikoodi, ilmainen kuponkikoodi, Ilmainen, Ilmainen, Frei, Ilmainen, 無 料, kurssi, Cúrsa Ar Líne, Cód Saorchúraim Saor in Aisce, Cúrsa Ar Líne saor in aisce, Cód Cúpón Free Cód Saorfhreagra Cúpóin Saor in Aisce, Gratuit, Frei, Gratuito, 無 料, Cúrsa, tanfolyam, Ingyenes kupon kód, Ingyenes tanfolyam, Ingyenes kupon kód, Ingyenes kupon kód, Gratis, Gratuit, Frei, Gratuito, 無 料, קורס מקוון חינם, קוד קופון חינם, חינם קורס מקוון, חינם קוד קופון קוד חינם קופון חינם, חינם, Gratuit, Frei, Gratuito, 無 料, קורס, オンラインコース、Udemy、無料クーポンコード、無料オンラインコース、無料Udemyクーポンコード、Udemy無料クーポンコード、無料、無料、フリー、Gratuito、無料、コース、 온라인 코스, 무료 쿠폰 코드, 무료 온라인 코스, 무료 쿠폰 코드, 무료 쿠폰 코드, 무료, 무료, Frei, 무료, 무료, 코스, Kurs , Darmowy kod kuponu, Darmowy kurs , darmowy kod rabatowy, bezpłatny kod rabatowy Udamy, Gratis, Gratuit, Frei, Gratuito, 無 料, kurs, Онлайн-курс, бесплатный купон-код, бесплатный онлайн-курс, бесплатный купон-код бесплатный код купона бесплатные, бесплатные, frei, gratuito, 無 料, курс, Libreng ng Kupon, Libreng Libreng ng Kupemy Kupon, Libreng Kupemy Kupon, Libre, Gabay, Ders, Bedava Kupon Kodu, Kurs, Bedava Udemi Kuponu Kodu, Free Kupon Kodu, Bedava Інтернет курс, безкоштовний купонний код, безкоштовний онлайн курс, безкоштовний купонний код код безкоштовного купона безкоштовно, безкоштовно, Frei, Gratuito, 無 料, курс, آن لائن کورس، ادمی، مفت کوپن کوڈ، مفت آن لائن کورس، مفت کوپن کوڈ، مفت کوپن کوڈ، مفت، Gratuit، Frei، Gratuito، 無 料، کورس، Onlayn kurs, bepul kupon kodi, bepul onlayn kurs, bepul kupon kodi, bepul kupon kodi, Gratis, Gratuit, Frei, Gratuito, Khóa học trực tuyến, Mã phiếu giảm giá miễn phí, Khóa học trực tuyến miễn phí, Mã phiếu giảm giá miễn phí Mã phiếu giảm giá miễn phí Miễn phí, Gratuit, Frei, Gratuito, 無 料, Khóa học, 在线课程,Udemy,免费优惠券代码,免费在线课程,免费Udemy优惠券代码,Udemy免费优惠券代码,免费,Gratuit,Frei,Gratuito,无料,课程, 
Keywords: Online Course, Udemy, Free Coupon Code, Free Online Course, Free Udemy Coupon Code, Udemy Free Coupon Code, Gratis, Gratuit, Frei, Gratuito, 無料, Course
Udemy, Online Course, Free Coupon Code, Gratis, Gratuit, Frei, Gratuito, 無料, Course, Arabic: على الانترنت بالطبع، أوديمي، رمز القسيمة الحرة، دورة على شبكة الإنترنت مجانا، مجانا أوديمي رمز القسيمة، أوديمي الحرة رمز القسيمة، حر، غراتشويت، فري، غراتويتو، 無 料، دوره آنلاین، Udemy، کد کوپن رایگان، دوره آنلاین رایگان، رایگان کد کوپن، رایگان کد کوپن، رایگان، Gratuit، Frei، Gratuito، 無 料، دوره، kurssi, Vapaa kuponki koodi, Ilmainen kurssi, Ilmainen kuponkikoodi, ilmainen kuponkikoodi, Ilmainen, Ilmainen, Frei, Ilmainen, 無 料, kurssi, Cúrsa Ar Líne, Cód Saorchúraim Saor in Aisce, Cúrsa Ar Líne saor in aisce, Cód Cúpón Free Cód Saorfhreagra Cúpóin Saor in Aisce, Gratuit, Frei, Gratuito, 無 料, Cúrsa, tanfolyam, Ingyenes kupon kód, Ingyenes tanfolyam, Ingyenes kupon kód, Ingyenes kupon kód, Gratis, Gratuit, Frei, Gratuito, 無 料, קורס מקוון חינם, קוד קופון חינם, חינם קורס מקוון, חינם קוד קופון קוד חינם קופון חינם, חינם, Gratuit, Frei, Gratuito, 無 料, קורס, オンラインコース、Udemy、無料クーポンコード、無料オンラインコース、無料Udemyクーポンコード、Udemy無料クーポンコード、無料、無料、フリー、Gratuito、無料、コース、 온라인 코스, 무료 쿠폰 코드, 무료 온라인 코스, 무료 쿠폰 코드, 무료 쿠폰 코드, 무료, 무료, Frei, 무료, 무료, 코스, Kurs , Darmowy kod kuponu, Darmowy kurs , darmowy kod rabatowy, bezpłatny kod rabatowy Udamy, Gratis, Gratuit, Frei, Gratuito, 無 料, kurs, Онлайн-курс, бесплатный купон-код, бесплатный онлайн-курс, бесплатный купон-код бесплатный код купона бесплатные, бесплатные, frei, gratuito, 無 料, курс, Libreng ng Kupon, Libreng Libreng ng Kupemy Kupon, Libreng Kupemy Kupon, Libre, Gabay, Ders, Bedava Kupon Kodu, Kurs, Bedava Udemi Kuponu Kodu, Free Kupon Kodu, Bedava Інтернет курс, безкоштовний купонний код, безкоштовний онлайн курс, безкоштовний купонний код код безкоштовного купона безкоштовно, безкоштовно, Frei, Gratuito, 無 料, курс, آن لائن کورس، ادمی، مفت کوپن کوڈ، مفت آن لائن کورس، مفت کوپن کوڈ، مفت کوپن کوڈ، مفت، Gratuit، Frei، Gratuito، 無 料، کورس، Onlayn kurs, bepul kupon kodi, bepul onlayn kurs, bepul kupon kodi, bepul kupon kodi, Gratis, Gratuit, Frei, Gratuito, Khóa học trực tuyến, Mã phiếu giảm giá miễn phí, Khóa học trực tuyến miễn phí, Mã phiếu giảm giá miễn phí Mã phiếu giảm giá miễn phí Miễn phí, Gratuit, Frei, Gratuito, 無 料, Khóa học, 在线课程,Udemy,免费优惠券代码,免费在线课程,免费Udemy优惠券代码,Udemy免费优惠券代码,免费,Gratuit,Frei,Gratuito,无料,课程,

#UDEMY #FREE #COUPON #COURSE #Libro #Discount #Code #Gratis #Gratuit #Frei #Gratuito #Kupon #Libre #Gabay #Bedava #Online #Course #Deal #Sale #Descuento #Rabatt #Desconto #Rabat #Libre #PDFDownload #Download #DownloadFreeBook #Download #Book #eBook #Free #PDF #Book #eBook #Download #Free #Bog #Gratis #Buch #E-Book #Frei #Libro #Descargar #Gratis #Kirja #Free #Livre #Téléchargement #Gratuit #Leabhar #Íoslódáil #SaorinAisce #Könyv #Letöltés #ingyen #Buku #e-book #Gratis #Libro
References: Udemy.com, LinkShare, Pixabay.com