Inteligencia Artificial y Deep Learning desde cero en Python
What you’ll learn
Los algoritmos y fundamentos más relevantes del Deep Learning y de la Inteligencia Artificial
La aplicación de técnicas de Deep Learning e Inteligencia Artificial a casos de uso prácticos reales
Librerías especializados como Tensorflow 2.0, Keras o Sklearn
Los fundamentos más relevantes de las Redes Neuronales Artificiales
El desarrollo e implementación de sistemas de Deep Learning e Inteligencia Artificial con Python 3
Las intuiciones matemáticas necesarias para comprender las técnicas actuales y futuras de Deep Learning
La ejecución de algoritmos de Deep Learning en entornos offline y online
El uso de Redes Neuronales Artificiales Profundas para la realización de predicciones y la resolución de tareas complejas
Requirements
Conocimientos básicos del lenguaje de programación Python
Description
¡Bienvenido a este curso sobre los fundamentos del Deep Learning y más concretamente de las Redes Neuronales Artificiales Profundas utilizando Python 3 y las librerías más populares como Sklearn, Tensorflow 2.0 o Keras!Mi nombre es Santiago Hernández y voy a ser vuestro instructor a lo largo de este programa formativo, tenéis más información sobre mí en la biografía o en el vídeo “Presentación del instructor”.A lo largo de este curso sobre Inteligencia Artificial y Deep Learning presentaré, desde un nivel muy básico y al alcance de todo tipo de perfiles, los fundamentos teóricos y matemáticos que se necesitan para comprender en detalle el funcionamiento de los algoritmos de Deep Learning y las librerías (Tensorflow, Keras …) más importantes en la actualidad.Para ello, utilizaré el enfoque que mejores resultados me ha proporcionado al impartir este tipo de clases en diferentes universidades, un enfoque práctico, en el que veréis como se desarrollan las diferentes funciones y ecuaciones matemáticas de mi puño y letra.Representaré gráficamente todas las intuiciones matemáticas en las que se fundamenta la Inteligencia Artificial y más concretamente el Deep Learning, de manera que, cualquier persona pueda comprenderlas y avanzar con las siguientes secciones. Este no es un curso para matemáticos, es un curso para todos aquellos que quieren adentrarse en el dominio del aprendizaje profundo construyendo unas bases sólidas que le permitan solucionar problemas reales mediante la implementación de las principales técnicas existentes en Python 3 con Tensorflow 2.0 y Keras y comprender aquellos algoritmos que surjan en el futuro.A medida que vayamos construyendo y comprendiendo estos fundamentos teóricos, iremos aplicándolos a mas de 30 casos de uso prácticos. Yo soy un firme creyente de que aquellas cosas que se aprenden de manera teórica deben saberse aplicar a casos de uso prácticos para sacarles todo el rendimiento posible, y esto es exactamente lo que haremos a lo largo del curso.En estos casos prácticos, trataremos de resolver diferentes problemas que existen en la actualidad mediante la aplicación de Machine Learning, Deep Learning y Data Science utilizando las últimas librerías disponibles, como, por ejemplo, Sklearn, Keras o Tensorflow mediante el lenguaje de programación Python 3. Por supuesto, desde el primer momento dispondréis de todo el código fuente y de la posibilidad de utilizarlo para vuestros propios desarrollos.La inteligencia Artificial y el Deep Learning, han sido percibidas en muchas ocasiones como disciplinas complejas al alcance de unos pocos profesionales. Este curso ha sido creado para refutar esta creencia y demostrar que cualquier persona con suficiente interés puede convertirse en un profesional de la Inteligencia Artificial y las redes neuronales artificiales profundas, inscríbete ahora y compruébalo tú mismo.Temario del cursoBienvenida al curso de Deep Learning y Redes Neuronales Artificiales ProfundasMotivaciónEntorno de aprendizaje: Jupyter Notebook, Anaconda, Python 3, Google Colaboratory¿Qué es el Deep Learning?: End-to-end Learning, Machine LearningIntroducción a las Redes Neuronales Artificiales: Neurona de Mcculloch y PittsEl PerceptrónRedes Neuronales Artificiales Profundas: Perceptrón MulticapaFunción de error y función de optimización: Binary Crossentropy, Gradient DescentEntrenamiento de Redes Neuronales Artificiales Profundas: Forward Propagation, Backward PropagationRedes Neuronales Artificiales Profundas: Implementación VectorizadaRegresión y Clasificación con Redes Neuronales Artificiales Profundas: Softmax RegressionIntroducción a Keras con Python 3Funciones de activación: sigmod, tanh, relu, leaky relu…Funciones de optimización: Mini-Batch Gradient Descent, Stochastic Gradient Descent, Momentum Gradient Descent, RMSprop, AdamSelección de hiperparámetros: Keras tunerTensorflow 2.0: Implementando Redes Neuronales Artificiales profundasConsideraciones de un proyecto de Deep Learning: Overfitting, Underfitting, Train Set, Validation Set, Test Set, Regularización, Dropout, Normalización…Despedida del curso de Deep Learning
Overview
Section 1: Bienvenida
Lecture 1 Presentación del curso
Section 2: Contexto del Deep Learning y Motivación
Lecture 2 Contexto del Deep Learning y Motivación
Lecture 3 Fake Obama creado utilizando Deep Learning
Section 3: Entorno de aprendizaje
Lecture 4 Introducción a la sección
Lecture 5 Preparación del entorno de aprendizaje
Lecture 6 Preparación del entorno offline
Lecture 7 Preparación del entorno online
Lecture 8 Descarga de los ejercicios y de los conjuntos de datos
Lecture 9 Presentación videos opcionales
Lecture 10 [Opcional] Caso Práctico: Introducción a Numpy
Lecture 11 [Opcional] Caso Práctico: Introducción a Pandas – Series
Lecture 12 [Opcional] Caso Práctico: Introducción a Pandas – DataFrames
Lecture 13 [Opcional] Caso Práctico: Introducción a Matplotlib
Section 4: ¿Qué es el Deep Learning?
Lecture 14 Introducción a la sección
Lecture 15 ¿Qué es el Machine Learning?
Lecture 16 End-to-End Learning
Lecture 17 Caso Práctico: Intuiciones sobre End-to-End Learning
Lecture 18 ¿Qué es el Deep Learning?
Lecture 19 Aplicaciones y clasificación de las técnicas de Deep Learning
Lecture 20 Presentación vídeos opcionales
Lecture 21 [Opcional] Aprendizaje supervisado
Lecture 22 [Opcional] Aprendizaje no supervisado
Section 5: Introducción a las Redes Neuronales Artificiales (RNAs)
Lecture 23 Introducción a la sección
Lecture 24 Introducción a las Redes Neuronales Artificiales
Lecture 25 Introducción a la neurona de Mcculloch y Pitts
Lecture 26 Características de entrada y limitaciones de la Neurona M-P
Lecture 27 Caso Práctico: Implementando la Neurona M-P
Lecture 28 Caso Práctico: Diagnóstico de cáncer de mama con la Neurona M-P
Section 6: El Perceptrón
Lecture 29 Introducción a la sección
Lecture 30 Introducción al Perceptrón
Lecture 31 Neurona M-P vs Perceptrón
Lecture 32 Perceptrón y eliminación del threshold
Lecture 33 Notación y funcionamiento del Perceptrón
Lecture 34 Perceptrón: Funciones de activación
Lecture 35 Caso Práctico: Visualización del límite de decisión del Perceptrón
Lecture 36 Perceptrón: Construcción del modelo
Lecture 37 Perceptrón: Limitaciones
Lecture 38 Caso Práctico: Clasificación de Imágenes
Section 7: Redes Neuronales Artificiales Profundas
Lecture 39 Introducción a la sección
Lecture 40 Introducción al Perceptrón Multicapa
Lecture 41 Arquitectura del Perceptrón Multicapa
Lecture 42 Notación y funcionamiento del Perceptrón Multicapa
Lecture 43 Componentes principales del Perceptrón Multicapa
Lecture 44 Función de activación del Perceptrón Multicapa
Lecture 45 Caso Práctico: Límite de decisión del Perceptrón Multicapa
Lecture 46 Introducción a Forward Propagation
Lecture 47 Forward Propagation con el Perceptrón Multicapa
Lecture 48 Forward Propagation para multiples entradas
Section 8: Función de error y de optimización en RNAs
Lecture 49 Introducción a la sección
Lecture 50 Introducción a la función de error
Lecture 51 Entendiendo la función de error
Lecture 52 Función de error final
Lecture 53 Introducción a la función de optimización
Lecture 54 Entendiendo la función de optimización
Lecture 55 Función de optimización final
Lecture 56 Caso Práctico: Clasificación de imágenes de dígitos manuscritos
Section 9: Entrenamiento de Redes Neuronales Artificiales Profundas
Lecture 57 Introducción a la sección
Lecture 58 Grafo computacional
Lecture 59 Derivadas con el Grafo Computacional
Lecture 60 Regla de la cadena
Lecture 61 [Opcional] Simplificando el resultado de las derivadas
Lecture 62 Backward Propagation
Lecture 63 Entrenado una RNA simple
Lecture 64 Entrenando una RNA profunda
Lecture 65 Caso Práctico: Clasificación de audio (Parte I)
Lecture 66 Caso Práctico: Clasificación de audio (Parte II)
Section 10: [Opcional] Implementación Vectorizada de RNAs
Lecture 67 Introducción a la sección
Lecture 68 Introducción a la vectorización
Lecture 69 Vectorización de la primera hidden layer
Lecture 70 Vectorización de la segunda hidden layer
Section 11: Regresión y Clasificación con RNAs
Lecture 71 Introducción a la sección
Lecture 72 Clasificación con Redes Neuronales Artificiales
Lecture 73 Introducción a la Clasificación Multiclase con RNAs
Lecture 74 Función de activación Softmax
Lecture 75 Función de error para Clasificación Multiclase
Lecture 76 Entrenando un Perceptrón para Clasificación Multiclase
Lecture 77 Regresión con Redes Neuronales Artificiales
Section 12: Introducción a Keras
Lecture 78 Introducción a la sección
Lecture 79 Introducción a Keras
Lecture 80 Caso Práctico: Implementando una RNA con Keras
Lecture 81 Caso Práctico: Entrenando una RNA con Keras
Lecture 82 Caso Práctico: Límite de decisión de una RNA profunda
Lecture 83 Caso Práctico: Clasificación de sonido con Keras
Lecture 84 Caso Práctico: Regresión con Keras
Section 13: Funciones de activación
Lecture 85 Introducción a la sección
Lecture 86 Introducción a las funciones de activación
Lecture 87 Función de activación tanh
Lecture 88 Función de activación relu
Lecture 89 Entrenamiento con diferentes funciones de activación
Lecture 90 Caso Práctico: Visualizando las funciones de activación
Lecture 91 ¿Por qué utilizar una función de activación?
Lecture 92 Caso Práctico: ¿Por qué utilizar una función de activación?
Lecture 93 ¿Por qué utilizar una función de activación diferenciable?
Lecture 94 Caso Práctico: Clasificación de sentimientos
Section 14: Funciones de Optimización
Lecture 95 Introducción a la sección
Lecture 96 Introducción a Mini-Batch Gradient Descent
Lecture 97 Mini-Batch Gradient Descent
Lecture 98 Caso Práctico: Mini-Batch Gradient Descent
Lecture 99 Stochastic Gradient Descent
Lecture 100 Caso Práctico: Stochastic Gradient Descent
Lecture 101 Exponentially Weighted Moving Average (Part I)
Lecture 102 Exponentially Weighted Moving Average (Part II)
Lecture 103 Caso Práctico: Exponentially Weighted Moving Average
Lecture 104 Momentum Gradient Descent
Lecture 105 Caso Práctico: Momentum Gradient Descent
Lecture 106 RMSprop
Lecture 107 Caso Práctico: RMSprop
Lecture 108 Adam Optimization
Lecture 109 Caso Práctico: Adam Optimization
Section 15: Selección de hiperparámetros
Lecture 110 Introducción a la sección
Lecture 111 ¿Qué es un hiperparámetro?
Lecture 112 Caso Práctico: Selección de hiperparámetros con Keras Tuner
Lecture 113 Número de capas óptimo
Lecture 114 Número de neuronas óptimo
Lecture 115 Otros hiperparámetros relevantes
Lecture 116 Caso Práctico: Selección de hiperparámetros y clasificación de texto
Section 16: Tensorflow 2.0
Lecture 117 Introducción a la sección
Lecture 118 Introducción a Tensorflow 2.0
Lecture 119 Caso Práctico: Tensores y operaciones con tensores
Lecture 120 Caso Práctico: Creación de una función de error personalizada
Lecture 121 Caso Práctico: Creación de otros componentes personalizados
Lecture 122 Caso Práctico: Creación de capas personalizadas
Section 17: Consideraciones de un proyecto de Deep Learning
Lecture 123 Introducción a la sección
Lecture 124 Overfitting y Underfitting
Lecture 125 División del conjunto de datos (Train-Val-Test)
Lecture 126 ¿Qué es la Regularización?
Lecture 127 Regularización en Redes Neuronales Artificiales
Lecture 128 Dropout Regularization
Lecture 129 Otros mecanismos de Regularización
Lecture 130 ¿Qué es la Normalización?
Lecture 131 Caso Práctico: Clasificación de Tweets de desastres naturales
Section 18: Despedida del curso
Lecture 132 Despedida del curso
Lecture 133 Clase extra – ¿Próximos pasos?
Estudiantes con interés por la Inteligencia Artificial, Data Science o Deep Learning,Profesionales interesados en formarse sobre Inteligencia Artificial y Redes Neuronales Artificiales Profundas,Profesionales interesados en aprender Tensorflow 2.0, Keras o sklearn,Estudiantes interesados en la aplicación del Machine Learning y Deep Learning a proyectos reales,Desarrolladores en Python con interés por el Deep Learning o las Redes Neuronales Artificiales,Estudiantes interesados en Machine Learning e Inteligencia Artificial
Course Information:
Udemy | Español | 27h 7m | 10.98 GB
Created by: Santiago Hernández
You Can See More Courses in the IT & Software >> Greetings from CourseDown.com