Aparche Spark streaming con Python y PySpark | Netcurso

Estudiantes nuevos
ingresar aquí:


Vamos

Plataforma vieja de
Netcurso:

Login

Aparche Spark streaming con Python y PySpark

Agrega Spark Streaming a tu proyectos de Machine Learning y Data Science

4.28 (37 valoraciones) / 1397 estudiantes inscritos
Creado por Mirror Class
Fecha de la última actualización: 2019-02-14
$199.99 $ 12,99 $
  • 53 Clases
  • 3 horas de vídeo bajo demanda
  • Acceso de por vida
  • Acceso en dispositivos móviles y TV
  • Certificado de finalización

Lo que aprenderás

  • Resumen general de la arquitectura de Apache Spark.
  • Se capaz de trabajar con la abstracción principal de Apache Spark, RDDs o conjuntos de datos distribuidos y resilientes, para procesar y analizar grandes conjuntos de datos.
  • Desarrollar aplicaciones Apache Spark 2.0, utilizando transformaciones y acciones en RDD y Spark SQL.
  • Escalar aplicaciones Spark a un clúster Hadoop YARN a través del servicio Elastic MapReduce de Amazon.
  • Analizar datos estructurados y semiestructurados utilizando conjuntos de datos (Datasets) y Dataframes, y entender a detalle el funcionamiento de Spark SQL.
  • Compartir información a través de diferentes nodos en un clúster de Apache Spark, mediante variables de difusión y acumuladores.
  • Técnicas avanzadas para optimizar y mejorar, trabajos de Apache Spark mediante el particionado, almacenamiento en caché y la persistencia de RDDs.
  • Buenas prácticas de trabajo con Apache Spark

Descripción

De qué trata este curso:

Este curso cubre todos los aspectos fundamentales de Apache Spark streaming con Python, y te enseña todo lo que necesitas saber sobre el desarrollo de aplicaciones Apache Spark.

Al final de este curso, obtendrás un conocimiento profundo sobre Apache Spark streaming, así como habilidades generales de manejo y análisis de big data para ayudar a tu empresa o proyecto a adaptar Apache Spark para la construcción de un pipeline de procesamiento de big data y aplicaciones de análisis de datos.

Este curso sera absolutamente critico para cualquiera que quiera dominar Data Science hoy en día.

¿Qué aprenderás en estas clases?

En particular, aprenderás:

  • Sobre la arquitectura de Apache Spark.

  • Como desarrollar aplicaciones Apache Spark streaming con PySpark usando transformaciones RDD, acciones y Spark SQL.

  • Serás capaz de trabajar con la abstracción principal de Apache Spark, RDDs o conjuntos de datos distribuidos y resilientes (RDD) para procesar y analizar grandes conjuntos de datos.

  • Técnicas avanzadas para optimizar y mejorar los trabajos Apache Spark al usar particiones, almacenamiento en cache y persistencia de RDDs.

  • Escalar aplicaciones Spark Streaming para banda ancha y velocidad de procesamiento.

  • Analizar datos estructurados y semiestructurados utilizando conjuntos de datos (Datasets) y Dataframes, y entender a detalle el funcionamiento de Spark SQL.

  • Como integrar Spark Streaming con herramientas de computo de clusters tales como Apache Kafka.

  • Conectar tu Spark Stream con una fuente de datos tal como Amazon Web Services (AWS).

  • Técnicas avanzadas para optimizar y mejorar, trabajos de Apache Spark mediante el particionado, almacenamiento en caché y la persistencia de RDDs.

  • Sobre buenas prácticas de trabajo con Apache Spark.

  • Repaso del ecosistema Big Data

¿Por qué debería aprender Apache Spark en streaming?

Spark Streaming se está volviendo increíblemente popular. Según IBM, el noventa por ciento de los datos en el mundo de hoy se ha creado solo en los últimos dos años. Nuestra salida actual de datos es de aproximadamente 2.5 quintillones de bytes por día. El mundo está siendo inmerso en datos, cada día más. Como tal, el análisis de marcos de datos estáticos de datos no dinámicos se convierte en el enfoque menos práctico de cada vez más problemas. Aquí es donde entra la transmisión de datos, la capacidad de procesar datos casi tan pronto como se producen, reconociendo la dependencia del tiempo de los datos.

Apache Spark streaming nos brinda una capacidad ilimitada para crear aplicaciones de vanguardia. También es una de las tecnologías más convincentes de la última década en términos de su interrupción en el mundo del big data. Spark proporciona computación en clúster en memoria que aumenta considerablemente la velocidad de los algoritmos iterativos y las tareas de minería de datos interactiva.

Spark también es un potente motor para transmitir datos y procesarlos. La sinergia entre ellos hace de Spark una herramienta ideal para procesar gigantescos chimeneas de datos.

Toneladas de compañías, incluidas las de Fortune 500, están adaptando la transmisión de Apache Spark para extraer el significado de flujos de datos masivos. Hoy en día, tienes acceso a esa misma tecnología de big data en tu escritorio.

¿En qué lenguaje de programación se enseña este curso de Apache Spark streaming?

Apache Spark streaming se imparte en Python. Python es actualmente uno de los lenguajes de programación más populares del mundo! Su gran comunidad de datos, que ofrece vastas cantidades de juegos de herramientas y características, la convierte en una herramienta poderosa para el procesamiento de datos. Al utilizar PySpark (la API de Python para Spark), podrá interactuar con la abstracción principal de Apache Spark Streaming, RDDs, así como con otros componentes de Spark, como Spark SQL y mucho más.

¡Aprendamos cómo escribir programas de transmisión de Apache Spark Streaming con PySpark para procesar fuentes de big data hoy!

¡30 días de garantía de devolución de dinero!

Udemy brinda una garantía de devolución de dinero de 30 días para este curso de Apache Spark streaming.

Si no estás satisfecho, simplemente solicita un reembolso dentro de los 30 días. Obtendrás un reembolso completo sin preguntas en absoluto.

¿Está listo para llevar tus habilidades de análisis de big data y tu carrera al siguiente nivel, toma este curso ahora?

Aprenderás Spark en 4 horas.

Para quién es este curso:

  • Desarrolladores de Python que buscan mejorar en Data Streaming

  • Gerentes o Ingenieros Senior en Equipos de Ingeniería de Datos

  • Desarrolladores Spark ansiosos por ampliar sus habilidades.