ELK Stack se ha hecho hueco entre las soluciones de gestión de logs BigData más populares aprovechando todos los beneficios de las bases de datos no relacionales. Con más de diez años a sus espaldas, siendo un proyecto libre y gratuito (OpenSource) y aprovechando su gran flexibilidad, es utilizado hoy día desde pequeños proyectos startups hasta clúster de cientos de nodos en algunas de las compañías más grandes y punteras a nivel global.
Ningún conocimiento previo de ELK o herramientas similares es necesario para afrontar este curso ya que se verá todo desde lo más básico hasta configuraciones más avanzadas que nos ayuden a poder utilizar ELK como herramienta de gestión de logs y monitorización para cualquier caso de uso que se nos ocurra. El enfoque del mismo es puramente práctico acompañado siempre que sea necesario de unas diapositivas previas para poner en contexto y entender qué es lo que se va a realizar en el laboratorio.
Además de ver, entender y configurar cada uno de los componentes en sus correspondientes módulos, no se perderá de vista siempre la integración entre ellos montando pequeñas prácticas donde se podrá ver cómo todos funcionan al unísono realizando cada uno de ellos sus correspondientes tareas.
Enfocado tanto a personas que quieran iniciarse en estas tecnologías como perfiles más avanzados, el curso buscará resolver la mayor cantidad de problemas posibles en la explotación de datos de distintas fuentes y tipos, dándole un significado a miles de logs que nos permitan entender qué está ocurriendo y aprovechar esta información para tener una correcta monitorización de aplicaciones o sistemas y poder mejorar la capacidad de detección y respuesta ante distintos problemas.
Comenzaremos por los conceptos más básicos y abordaremos cada uno de los componentes del Stack ELK: Beats, Logstash, ElasticSearch y Kibana sin olvidarnos de puntos tan importantes como el uso de la API y las consultas con DSL, finalizando con los módulos de X-pack (funcionalidades extras bajo licencia) y paso a producción donde se aprovechará la escalabilidad de la herramienta montando un clúster de nodos y consiguiendo alta disponibilidad y tolerancia a fallos en el flujo de información y datos.