Hadoop Big Data desde cero
What you’ll learn
Instalar un entorno de Hadoop Big Data
Administrar y configurar los componentes de Hadoop
Instalar un cluster Hadoop con ambari
Aprender a manejar el sistema de ficheros HDFS
Entender los conceptos más importantes de MapReduce y YARN
Aprender a instalar y configurar productos asociados como HIVE, HUE, HBASE, SPARK, ETC….
Requirements
Se necesitan ciertos conocimientos de Linux, aunque no de un nivel avanzado
También sería deseable que supieras algo de Java, aunque no es obligatorio
Necesitas una máquina con al menos 8 Gigas de RAM, aunque para poder tener 3 nodos hadoop funcionando sería conveniente disponer de 12 Gigas
Description
Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología y veremos los productos y herramientas más habituales de este ecosistemaVálido para versiones 2 y 3 de Hadoop¿Qué contenidos vamos a ver?- Aprenderás los conceptos básicos de esta tecnología- Verás como descargar e instalar Hadoop manualmente – También aprenderás a instalar y configurar Hadoop con ambari- Trabajarás con HDFS para entender la gestión de ficheros en Hadoop- Instalarás y configuraras Map Reduce y YARN- Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del ecosistema Hadoop: HIVE SQOOP SPARK HUE ZooKeeper HBASE Otros productos que iré subiendo y actualizandoPIGFLUME……¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!- Una máquina básica en Linux Centos 6 con la que podrás hacer todas las prácticas desde el principio
– Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configurado en modo Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de instalación y configuración inicialEn resumen, este curso te capacitará para poder empezar a desarrollar y usar esta infraestructura en tu entorno laboral. El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productivaCualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡Espero lo disfrutes¡¡¡¡¡
Overview
Section 1: Introducción a Big Data y Hadoop
Lecture 1 Introducción al curso
Lecture 2 Nota sobre la valoración del curso
Lecture 3 Introducción y repaso de Big Data
Lecture 4 Video aclaratorio sobre el uso de hadoop 3 en el curso
Lecture 5 Introducción a Hadoop
Lecture 6 Herramientas y productos asociados a Hadoop
Lecture 7 Distribuciones Hadoop
Section 2: Preparación de la Infraestructura (IMPORTANTE, SOLO NECESARIA SI NO LO TIENES)
Lecture 8 Introducción a la sección
Lecture 9 Infraestructura necesaria
Lecture 10 NOTA IMPORTANTE SOBRE VIRTUALBOX 6 Y CENTOS
Lecture 11 Descarga e instalación de Oracle Virtual Box
Lecture 12 Descarga del Sistema Operativo Linux CentOS
Lecture 13 Preparación de la máquina virtual
Lecture 14 Instalación de CentOS
Lecture 15 Instalar las Guest Additions en la Máquina virtual
Lecture 16 MÁQUINAS VIRTUALES PREPARADAS y material adicional
Section 3: Preparación de Hadoop
Lecture 17 Descarga de Hadoop
Lecture 18 Preparar el software de Hadoop
Lecture 19 Instalar las JDK
Lecture 20 Primer vistazo a Hadoop
Lecture 21 Configuración de variables de entorno
Lecture 22 Comprobar que Hadoop funciona
Lecture 23 Práctica-Guía paso a paso de lo realizado hasta ahora en la sección
Lecture 24 Configurar SSH
Lecture 25 Práctica-Guía detallada de configuración SSH
Section 4: Montar un cluster de un solo nodo. Aprender HDFS
Lecture 26 Introducción a HDFS
Lecture 27 Cluster Pseudistribuido (core-site.xml)
Lecture 28 Cluster Pseudodistribuido (hdfs-site.xml)
Lecture 29 Cluster Pseudodistribuido (Formatear HDFS)
Lecture 30 Arrancar HDFS
Lecture 31 Anexo: Cambio en el puerto WEB en la Versión 3 de Haddoop
Lecture 32 Web de Administración de HDFS
Lecture 33 Práctica- Guía detallada de configuración HDFS
Lecture 34 23-Trabajar con HDFS-fsimage y edits
Lecture 35 Práctica-Uso de Fsimage y Edits
Lecture 36 Trabajar con ficheros
Lecture 37 HDFS-Trabajar con ficheros Parte 2
Lecture 38 HDFS-Trabajar con ficheros Parte 3
Lecture 39 Práctica- Trabajar con HDFS
Lecture 40 HDFS-Algunos comandos de administración
Lecture 41 Práctica-Administración de HDFS
Lecture 42 HDFS-Snapshots
Lecture 43 Práctica-Snapshots
Section 5: YARN-MapReduce
Lecture 44 Yarn y Map Reduce
Lecture 45 Funcionamiento de YARN
Lecture 46 Configurar YARN en un cluster
Lecture 47 Web de Administración de YARN
Lecture 48 Práctica-Guía detallada para montar un cluster PseudoDistirbuido
Lecture 49 HADOOP 3:Modificación en YARN-SITE para Hadoop 3
Lecture 50 Funcionamiento de Map Reduce
Lecture 51 Un ejemplo con Map Reduce
Lecture 52 Práctica-Trabajar con MapReduce
Lecture 53 Un ejemplo de Map Reduce desde código Java
Lecture 54 Práctica-Crear programas Map Reduce con Java
Lecture 55 Un ejemplo de Map Reduce con streaming-Python
Lecture 56 Práctica-Crear un Map Reduce con Python y Streaming
Section 6: Montar un Cluster real
Lecture 57 Clonar el nodo Hadoop
Lecture 58 Clonar el nodo Hadoop Parte 2
Lecture 59 Configurar la red en los nodos
Lecture 60 Configurar SSH entre los nodos
Lecture 61 HADOOP 3- CAMBIO DE NOMBRE DEL FICHEROS DE NODOS ESCLAVOS
Lecture 62 Modificar los ficheros de configuración del Cluster
Lecture 63 Arrancar el cluster
Lecture 64 Práctica- Montar un cluster real
Lecture 65 Probar un proceso Map Reduce contra el Cluster
Lecture 66 Práctica-Lanzar un proceso MapReduce contra el cluster
Lecture 67 Práctica-Streaming con comandos Shell de Linux
Lecture 68 Práctica-Lanzar un programa Python contra el cluster
Lecture 69 Comando YARN. Gestionar el cluster
Lecture 70 Práctica-Comando YARN
Lecture 71 Yarn Scheduler. Introducción
Lecture 72 Yarn Scheduler- Ver su funcionamiento
Lecture 73 Yarn-Scheduler. Configuración
Lecture 74 Yarn Scheduler. Lanzar procesos MapReduce contra una cola
Lecture 75 Práctica- Trabajar con el Yarn Scheduler
Section 7: Productos asociados a Big Data
Lecture 76 Introducción a las siguientes secciones
Section 8: HIVE
Lecture 77 Introducción a Hive
Lecture 78 Instalación y configuración inicial
Lecture 79 Comandos HIVE
Lecture 80 Configurar HDFS para usr HIVE
Lecture 81 Primeros pasos-Crear Bases de Datos y Tablas
Lecture 82 Hive-Primeros Pasos Parte2
Lecture 83 Prácticas- Instalar, Configurar, Crear Bases de datos
Lecture 84 Tablas internas y LOAD
Lecture 85 Tablas Externas
Lecture 86 Prácticas- Crear tablas externas e internas con columnas complejas
Lecture 87 Conexiones remotas. HiveServer2 y Beeline
Lecture 88 Ejemplo Real. Deslizamientos de Tierra. Parte 1
Lecture 89 Ejemplo Real. Deslizamientos de Tierra. Parte 2. Hasta Excel
Lecture 90 Recursos de la práctica anterior
Section 9: HUE
Lecture 91 Introducción a HUE
Lecture 92 Compilar e instalar HUE
Lecture 93 Práctica-Compilar HUE
Lecture 94 Configurar y arrancar HUE
Lecture 95 Práctica- Configurar y arrancar HUE
Lecture 96 Un paseo por HUE
Section 10: Sqoop
Lecture 97 Introducción a SQOOP
Lecture 98 Instalar y configurar Sqoop
Lecture 99 Comandos SQOOP
Lecture 100 Descargar Oracle Express 11g
Lecture 101 Instalar Oracle Express 11g
Lecture 102 Comprobar que Oracle funciona
Lecture 103 Configurar Oracle y JDBC
Lecture 104 Importar datos de Oracle a HDFS
Lecture 105 Práctica. Importar datos con Sqoop
Lecture 106 Exportar datos de HDFS a Oracle
Section 11: Zookeeper y Alta disponibilidad en Hadoop
Lecture 107 Introducción a Zookeeper
Lecture 108 Instalar ZooKeeper
Lecture 109 Configurar ZooKeeper
Lecture 110 Arrancar ZooKeeper y comprobar
Lecture 111 Práctica detallada de instalación y arranque
Lecture 112 Cliente ZooKeeper: zkCli
Lecture 113 Práctica con el cliente ZooKeeper
Lecture 114 Introducción a la alta disponibilidad HDFS
Lecture 115 Configurar alta disponibilidad HDFS
Lecture 116 Arrancar HDFS en alta disponibilidad
Lecture 117 Práctica: Configurar y arrancar el cluster HDFS
Lecture 118 Comprobar que el cluster HDFS funciona
Section 12: SPARK
Lecture 119 Introducción a Spark Parte 1
Lecture 120 Introducción a Spark Parte 2
Lecture 121 Descarga de Spark
Lecture 122 Arquitectura de procesos de Spark
Lecture 123 Instalar Spark
Lecture 124 Probar que Spark funciona. Modo cliente
Lecture 125 Spark y Hadoop. Trabajar con HDFS
Lecture 126 Lanzar un programa SPARK (Scala) contra YARN
Lecture 127 Lanzar un Programa Spark (Python) contra el cluster
Lecture 128 Spark en modo StandAlone Parte 1
Lecture 129 Spark en modo Standalone Parte 2
Section 13: HBASE
Lecture 130 Introducción a Hbase
Lecture 131 Arquitectura de Hbase
Lecture 132 Instalación Standalone Parte 1
Lecture 133 Instalacion Standalone Parte 2
Lecture 134 Conceptos de Hbase
Lecture 135 Trabajar con Hbase Shell
Lecture 136 Crear tablas e insertar datos
Lecture 137 Scan y get
Lecture 138 Delete, update y versionado
Lecture 139 Hbase en modo pseudo-distribuido
Lecture 140 Hbase en modo Cluster completo
Section 14: Montar un cluster con Ambari
Lecture 141 Introducción a Ambari
Lecture 142 Descargar e instalar Ambari
Lecture 143 Configurar el servidor ambari
Lecture 144 Instalar el cluster de Hadoop con Ambari Parte I
Lecture 145 Instalar el cluster de Hadoop con Ambari Parte II
Section 15: Despedida
Lecture 146 Clase EXTRA
Este curso está dirigido a personas que necesiten instalar y administrar un entorno de Hadoop,También es interesante para aquellas personas que quieran mantenerse al día en conocimientos relacionados con BigData y Hadoop,Aquellas personas que quieran conocer los productos asociados a Hadoop
Course Information:
Udemy | Español | 13h 27m | 7.08 GB
Created by: Apasoft Training
You Can See More Courses in the Business >> Greetings from CourseDown.com