Monta un cluster Hadoop Big Data desde cero | Netcurso

Estudiantes nuevos
ingresar aquí:


Vamos

Plataforma vieja de
Netcurso:

Login

Monta un cluster Hadoop Big Data desde cero

Aprende a trabajar con Hadoop Big Data con MapReduce, YARN, HIVE, SQOOP, SPARK, HBASE, HUE, Zookeeper, etc....

4.46 (596 valoraciones) / 2455 estudiantes inscritos
Creado por Apasoft Training
Fecha de la última actualización: 2019-06-05
$114.99 $ 12,99 $
  • 148 Clases
  • 13 horas de vídeo bajo demanda
  • Acceso de por vida
  • Acceso en dispositivos móviles y TV
  • Certificado de finalización

Lo que aprenderás

  • Instalar un entorno de Hadoop Big Data
  • Administrar y configurar los componentes de Hadoop
  • Instalar un cluster Hadoop con ambari
  • Aprender a manejar el sistema de ficheros HDFS
  • Entender los conceptos más importantes de MapReduce y YARN
  • Aprender a instalar y configurar productos asociados como HIVE, HUE, HBASE, SPARK, ETC....

Descripción

Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología y veremos los productos y herramientas más habituales de este ecosistema

Válido para versiones 2 y 3 de Hadoop

¿Qué contenidos vamos a ver?

  • - Aprenderás los conceptos básicos de esta tecnología

  • - Verás como descargar e instalar Hadoop  manualmente 

  • - También aprenderás a instalar y configurar Hadoop con ambari

  • - Trabajarás con HDFS para entender la gestión de ficheros en Hadoop

  • - Instalarás y configuraras Map Reduce y YARN

  • - Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del ecosistema Hadoop:

  •    HIVE

  •    SQOOP

  •    SPARK

  •    HUE

  •    ZooKeeper

  •    HBASE

  •   Otros productos que iré subiendo y actualizando

    • PIG

    • FLUME

    • ......

¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!

- Una máquina básica en Linux Centos 6 con la que podrás hacer todas las prácticas desde el principio

- Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configurado en modo Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de instalación y configuración inicial

En resumen, este curso te capacitará para poder empezar a desarrollar y usar esta infraestructura en tu entorno laboral. 

El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productiva

Cualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡


Espero lo disfrutes¡¡¡¡¡