Introducción
  • Introducción al curso
  • Pre requisitos del curso
  • Conoce a Juan Gabriel Gomila, tu instructor online
  • Un ejemplo en directo de IA
  • Aplicaciones prácticas del reinforcement learning y la IA en el mundo actual
  • Repositorio del curso de Inteligencia Artificial en Github
  • NOTA ADICIONAL: Actualización de los materiales en Google Colab
  • Comunidad de estudiantes en Discord
Como aprenden las máquinas
  • Una recomendación acerca de cómo ver esta sección
  • ¿Qué es el aprendizaje por refuerzo?
  • Notación de variables
  • El agente del laberinto
  • La ecuación de Bellman
  • Calculando el resto de valores en los estados
  • El plan
  • Búsquedas deterministas y no deterministas
  • Procesos estocásticos o cadenas de Markov
  • Ecuación de Bellman con procesos estocásticos
  • Politica o plan
  • Factor de Penalización
  • Q-Learning
  • La diferencia temporal
  • ¡Fin de la teoría!
Instalación y requisitos previos
  • Instalar Python con Anaconda
  • Cómo instalar la librería AIGym
  • Probando OpenAI
  • Dependencias con Homebrew y Aptitude
  • Posible solución para las dependencias en Windows
  • Instalar los entornos de Open AI Gym
  • [Aporte] Posible solución para usar Windows
  • Probando los entornos instalados
  • Pytorch, la librería de python para inteligencia artificial
El proyecto de la Universidad de Berkeley
  • Como tener Python 2.x y 3.x desde Anaconda
  • El Github del proyecto de Berkeley para aprender experimentar con el laberinto
  • Cambiando los parámetros para hacer que nuestro agente aprenda
Primer contacto con la inteligencia artificial
  • Cómo ver todos los entornos de test que tenemos instalados
  • Ejecutar cualquier entorno de Open AI Gym
  • De reinforcement learning a líneas de código
  • Un ejemplo de reinforcement learning con Q-Bert
  • Los espacios de acciones en OpenAI Gym
  • Mostrando qué acciones y estados tenemos en un entorno
Mi primer agente inteligente - El problema de la montaña Rusa
  • El problema de la montaña rusa
  • El entorno y los espacios de estado y acciones
  • Un agente con decisiones aleatorias
  • Nuestro propio algoritmo de Q-Learning
  • Inicialización de las variables
  • El método de discretización del espacio de estados
  • Elección de la acción
  • El método de aprendizaje
  • Entrenar a nuestro agente
  • Evaluación del entrenamiento
  • Comprobando nuestro aprendizaje
  • Vídeos del resultado del agente
Deep Learning al detalle
  • Introducción al Deep Learning
  • Historia de las redes neuronales
  • El creador del concepto de Deep Learning
  • La neurona
  • Cómo procesa la información una neurona artificial
  • Las funciones de activación
  • Ejercicio: ¿Qué función de activación elegirías en cada caso?
  • Cómo funciona una red neuronal
  • Programación clásica vs redes neuronales
  • La función de costes
  • El método de optimización del gradiente descendente
  • Gradiente descendiente estocástico
  • Propagación hacia atrás
Deep Q-Learning
  • Aprendizaje en profundo para problemas discretos
  • Las redes neuronales
  • Single Layer Perceptron
  • El perceptrón de una capa explicado
  • Una implementación de QLearning con el perceptrón
  • Separando métodos según su funcionalidad
  • Utilidades para complementar nuestro desarrollo
  • Aprendiendo con la red neuronal
  • Probando nuestros resultados
  • Experiencia de repetición
  • Implementando un buffer de experiencia cíclico
  • Aprender de la experiencia previa
  • Probando la experiencia de repetición de la red neuronal
  • Un cambio necesario en la clase anterior
Las redes neuronales de convolución
  • Introducción a las redes neuronales convolucionales
  • Cómo funciona el cerebro humano
  • ¿Qué son las redes neuronales de convolución?
  • La operación de convolución
  • Ejemplos de convolución
  • La capa de ReLU
  • Max Pooling
  • Jugando con las capas de la CNN
  • Flattening
  • La capa de full connection
  • Un ejemplo de red neuronal artificial al final de la CNN