Hadoop Big Data desde cero

Aprende a trabajar con Hadoop Big Data con MapReduce, YARN, HIVE, SQOOP, SPARK, HBASE, HUE, Zookeeper, etc….
Hadoop Big Data desde cero
File Size :
7.08 GB
Total length :
13h 27m

Category

Instructor

Apasoft Training

Language

Last update

Última actualización: 8/2022

Ratings

4.4/5

Hadoop Big Data desde cero

What you’ll learn

Instalar un entorno de Hadoop Big Data
Administrar y configurar los componentes de Hadoop
Instalar un cluster Hadoop con ambari
Aprender a manejar el sistema de ficheros HDFS
Entender los conceptos más importantes de MapReduce y YARN
Aprender a instalar y configurar productos asociados como HIVE, HUE, HBASE, SPARK, ETC….

Hadoop Big Data desde cero

Requirements

Se necesitan ciertos conocimientos de Linux, aunque no de un nivel avanzado
También sería deseable que supieras algo de Java, aunque no es obligatorio
Necesitas una máquina con al menos 8 Gigas de RAM, aunque para poder tener 3 nodos hadoop funcionando sería conveniente disponer de 12 Gigas

Description

Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología y veremos los productos y herramientas más habituales de este ecosistemaVálido para versiones 2 y 3 de Hadoop¿Qué contenidos vamos a ver?- Aprenderás los conceptos básicos de esta tecnología- Verás como descargar e instalar Hadoop  manualmente – También aprenderás a instalar y configurar Hadoop con ambari- Trabajarás con HDFS para entender la gestión de ficheros en Hadoop- Instalarás y configuraras Map Reduce y YARN- Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del ecosistema Hadoop:   HIVE   SQOOP   SPARK   HUE   ZooKeeper   HBASE  Otros productos que iré subiendo y actualizandoPIGFLUME……¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!- Una máquina básica en Linux Centos 6 con la que podrás hacer todas las prácticas desde el principio
– Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configurado en modo Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de instalación y configuración inicialEn resumen, este curso te capacitará para poder empezar a desarrollar y usar esta infraestructura en tu entorno laboral. El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productivaCualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡Espero lo disfrutes¡¡¡¡¡

Overview

Section 1: Introducción a Big Data y Hadoop

Lecture 1 Introducción al curso

Lecture 2 Nota sobre la valoración del curso

Lecture 3 Introducción y repaso de Big Data

Lecture 4 Video aclaratorio sobre el uso de hadoop 3 en el curso

Lecture 5 Introducción a Hadoop

Lecture 6 Herramientas y productos asociados a Hadoop

Lecture 7 Distribuciones Hadoop

Section 2: Preparación de la Infraestructura (IMPORTANTE, SOLO NECESARIA SI NO LO TIENES)

Lecture 8 Introducción a la sección

Lecture 9 Infraestructura necesaria

Lecture 10 NOTA IMPORTANTE SOBRE VIRTUALBOX 6 Y CENTOS

Lecture 11 Descarga e instalación de Oracle Virtual Box

Lecture 12 Descarga del Sistema Operativo Linux CentOS

Lecture 13 Preparación de la máquina virtual

Lecture 14 Instalación de CentOS

Lecture 15 Instalar las Guest Additions en la Máquina virtual

Lecture 16 MÁQUINAS VIRTUALES PREPARADAS y material adicional

Section 3: Preparación de Hadoop

Lecture 17 Descarga de Hadoop

Lecture 18 Preparar el software de Hadoop

Lecture 19 Instalar las JDK

Lecture 20 Primer vistazo a Hadoop

Lecture 21 Configuración de variables de entorno

Lecture 22 Comprobar que Hadoop funciona

Lecture 23 Práctica-Guía paso a paso de lo realizado hasta ahora en la sección

Lecture 24 Configurar SSH

Lecture 25 Práctica-Guía detallada de configuración SSH

Section 4: Montar un cluster de un solo nodo. Aprender HDFS

Lecture 26 Introducción a HDFS

Lecture 27 Cluster Pseudistribuido (core-site.xml)

Lecture 28 Cluster Pseudodistribuido (hdfs-site.xml)

Lecture 29 Cluster Pseudodistribuido (Formatear HDFS)

Lecture 30 Arrancar HDFS

Lecture 31 Anexo: Cambio en el puerto WEB en la Versión 3 de Haddoop

Lecture 32 Web de Administración de HDFS

Lecture 33 Práctica- Guía detallada de configuración HDFS

Lecture 34 23-Trabajar con HDFS-fsimage y edits

Lecture 35 Práctica-Uso de Fsimage y Edits

Lecture 36 Trabajar con ficheros

Lecture 37 HDFS-Trabajar con ficheros Parte 2

Lecture 38 HDFS-Trabajar con ficheros Parte 3

Lecture 39 Práctica- Trabajar con HDFS

Lecture 40 HDFS-Algunos comandos de administración

Lecture 41 Práctica-Administración de HDFS

Lecture 42 HDFS-Snapshots

Lecture 43 Práctica-Snapshots

Section 5: YARN-MapReduce

Lecture 44 Yarn y Map Reduce

Lecture 45 Funcionamiento de YARN

Lecture 46 Configurar YARN en un cluster

Lecture 47 Web de Administración de YARN

Lecture 48 Práctica-Guía detallada para montar un cluster PseudoDistirbuido

Lecture 49 HADOOP 3:Modificación en YARN-SITE para Hadoop 3

Lecture 50 Funcionamiento de Map Reduce

Lecture 51 Un ejemplo con Map Reduce

Lecture 52 Práctica-Trabajar con MapReduce

Lecture 53 Un ejemplo de Map Reduce desde código Java

Lecture 54 Práctica-Crear programas Map Reduce con Java

Lecture 55 Un ejemplo de Map Reduce con streaming-Python

Lecture 56 Práctica-Crear un Map Reduce con Python y Streaming

Section 6: Montar un Cluster real

Lecture 57 Clonar el nodo Hadoop

Lecture 58 Clonar el nodo Hadoop Parte 2

Lecture 59 Configurar la red en los nodos

Lecture 60 Configurar SSH entre los nodos

Lecture 61 HADOOP 3- ​CAMBIO DE NOMBRE DEL FICHEROS DE NODOS ESCLAVOS

Lecture 62 Modificar los ficheros de configuración del Cluster

Lecture 63 Arrancar el cluster

Lecture 64 Práctica- Montar un cluster real

Lecture 65 Probar un proceso Map Reduce contra el Cluster

Lecture 66 Práctica-Lanzar un proceso MapReduce contra el cluster

Lecture 67 Práctica-Streaming con comandos Shell de Linux

Lecture 68 Práctica-Lanzar un programa Python contra el cluster

Lecture 69 Comando YARN. Gestionar el cluster

Lecture 70 Práctica-Comando YARN

Lecture 71 Yarn Scheduler. Introducción

Lecture 72 Yarn Scheduler- Ver su funcionamiento

Lecture 73 Yarn-Scheduler. Configuración

Lecture 74 Yarn Scheduler. Lanzar procesos MapReduce contra una cola

Lecture 75 Práctica- Trabajar con el Yarn Scheduler

Section 7: Productos asociados a Big Data

Lecture 76 Introducción a las siguientes secciones

Section 8: HIVE

Lecture 77 Introducción a Hive

Lecture 78 Instalación y configuración inicial

Lecture 79 Comandos HIVE

Lecture 80 Configurar HDFS para usr HIVE

Lecture 81 Primeros pasos-Crear Bases de Datos y Tablas

Lecture 82 Hive-Primeros Pasos Parte2

Lecture 83 Prácticas- Instalar, Configurar, Crear Bases de datos

Lecture 84 Tablas internas y LOAD

Lecture 85 Tablas Externas

Lecture 86 Prácticas- Crear tablas externas e internas con columnas complejas

Lecture 87 Conexiones remotas. HiveServer2 y Beeline

Lecture 88 Ejemplo Real. Deslizamientos de Tierra. Parte 1

Lecture 89 Ejemplo Real. Deslizamientos de Tierra. Parte 2. Hasta Excel

Lecture 90 Recursos de la práctica anterior

Section 9: HUE

Lecture 91 Introducción a HUE

Lecture 92 Compilar e instalar HUE

Lecture 93 Práctica-Compilar HUE

Lecture 94 Configurar y arrancar HUE

Lecture 95 Práctica- Configurar y arrancar HUE

Lecture 96 Un paseo por HUE

Section 10: Sqoop

Lecture 97 Introducción a SQOOP

Lecture 98 Instalar y configurar Sqoop

Lecture 99 Comandos SQOOP

Lecture 100 Descargar Oracle Express 11g

Lecture 101 Instalar Oracle Express 11g

Lecture 102 Comprobar que Oracle funciona

Lecture 103 Configurar Oracle y JDBC

Lecture 104 Importar datos de Oracle a HDFS

Lecture 105 Práctica. Importar datos con Sqoop

Lecture 106 Exportar datos de HDFS a Oracle

Section 11: Zookeeper y Alta disponibilidad en Hadoop

Lecture 107 Introducción a Zookeeper

Lecture 108 Instalar ZooKeeper

Lecture 109 Configurar ZooKeeper

Lecture 110 Arrancar ZooKeeper y comprobar

Lecture 111 Práctica detallada de instalación y arranque

Lecture 112 Cliente ZooKeeper: zkCli

Lecture 113 Práctica con el cliente ZooKeeper

Lecture 114 Introducción a la alta disponibilidad HDFS

Lecture 115 Configurar alta disponibilidad HDFS

Lecture 116 Arrancar HDFS en alta disponibilidad

Lecture 117 Práctica: Configurar y arrancar el cluster HDFS

Lecture 118 Comprobar que el cluster HDFS funciona

Section 12: SPARK

Lecture 119 Introducción a Spark Parte 1

Lecture 120 Introducción a Spark Parte 2

Lecture 121 Descarga de Spark

Lecture 122 Arquitectura de procesos de Spark

Lecture 123 Instalar Spark

Lecture 124 Probar que Spark funciona. Modo cliente

Lecture 125 Spark y Hadoop. Trabajar con HDFS

Lecture 126 Lanzar un programa SPARK (Scala) contra YARN

Lecture 127 Lanzar un Programa Spark (Python) contra el cluster

Lecture 128 Spark en modo StandAlone Parte 1

Lecture 129 Spark en modo Standalone Parte 2

Section 13: HBASE

Lecture 130 Introducción a Hbase

Lecture 131 Arquitectura de Hbase

Lecture 132 Instalación Standalone Parte 1

Lecture 133 Instalacion Standalone Parte 2

Lecture 134 Conceptos de Hbase

Lecture 135 Trabajar con Hbase Shell

Lecture 136 Crear tablas e insertar datos

Lecture 137 Scan y get

Lecture 138 Delete, update y versionado

Lecture 139 Hbase en modo pseudo-distribuido

Lecture 140 Hbase en modo Cluster completo

Section 14: Montar un cluster con Ambari

Lecture 141 Introducción a Ambari

Lecture 142 Descargar e instalar Ambari

Lecture 143 Configurar el servidor ambari

Lecture 144 Instalar el cluster de Hadoop con Ambari Parte I

Lecture 145 Instalar el cluster de Hadoop con Ambari Parte II

Section 15: Despedida

Lecture 146 Clase EXTRA

Este curso está dirigido a personas que necesiten instalar y administrar un entorno de Hadoop,También es interesante para aquellas personas que quieran mantenerse al día en conocimientos relacionados con BigData y Hadoop,Aquellas personas que quieran conocer los productos asociados a Hadoop

Course Information:

Udemy | Español | 13h 27m | 7.08 GB
Created by: Apasoft Training

You Can See More Courses in the Business >> Greetings from CourseDown.com

New Courses

Scroll to Top