Aprende los fundamentos de TensorFlow y Deep Learning con Python

Aprende los fundamentos de TensorFlow y Deep Learning con Python

un curso interesante que te permitirá aprender los fundamentos de TensorFlow y del deep learning a través de Python. El curso está en inglés, pero como el subtitulado es fácil para gente que no domine la lengua inglesa de poder seguir.

Aprende los fundamentos de TensorFlow y Deep Learning con Python Parte I

¿Listo para aprender los fundamentos de TensorFlow y el aprendizaje profundo con Python? Bueno, has venido al lugar correcto.

Después de esta introducción en dos partes, habrás escrito cientos de líneas de código TensorFlow y tendrás experiencia práctica con dos problemas importantes en el aprendizaje automático: regresión (predecir un número) y clasificación (predecir si algo es una cosa u otra).

Abre una ventana de Google Colab (si no estás seguro de lo que es, pronto lo sabrás) y prepárate para codificar.


Consigue todo el código/materiales en GitHub – https://www.github.com/mrdbourke/tens…
Haz una pregunta – https://github.com/mrdbourke/tensorfl…
Ver parte 2 – https://youtu.be/ZUKz4125WNI
Documentación de TensorFlow Python – https://www.tensorflow.org/api_docs/p…

Marcas de tiempo:
0:00 – Introducción/hola/cómo enfocar este vídeo
1:50 – INICIO DEL MÓDULO 0 (fundamentos de TensorFlow/aprendizaje profundo)
1:53 – [Keynote] 1. ¿Qué es el aprendizaje profundo?
6:31 – [Keynote] 2. ¿Por qué utilizar el aprendizaje profundo?
16:10 – [Keynote] 3. ¿Qué son las redes neuronales?
26:33 – [Keynote] 4. ¿Para qué se utiliza realmente el aprendizaje profundo?
35:10 – [Keynote] 5. ¿Qué es y por qué usar TensorFlow?
43:05 – [Keynote] 6. ¿Qué es un tensor?
46:40 – [Keynote] 7. Qué vamos a cubrir
51:12 – [Keynote] 8. Cómo enfocar este curso
56:45 – 9. Creando nuestros primeros tensores con TensorFlow
1:15:32 – 10. Creación de tensores con tf Variable
1:22:40 – 11. Creación de tensores aleatorios
1:32:20 – 12. Barajar el orden de los tensores
1:42:00 – 13. Creación de tensores a partir de matrices NumPy
1:53:57 – 14. 14. Obtención de información de nuestros tensores
2:05:52 – 15. Indexación y expansión de tensores
2:18:27 – 16. Manipulación de tensores con operaciones básicas
2:24:00 – 17. Multiplicación de matrices parte 1
2:35:55 – 18. Multiplicación de matrices parte 2
2:49:25 – 19. Multiplicación de matrices parte 3
2:59:27 – 20. Cambio del tipo de datos de los tensores
3:06:24 – 21. 21. Agregación de tensores
3:16:14 – 22. Solución de problemas con tensores
3:22:27 – 23. Encontrar el mínimo y el máximo posicional de un tensor
3:31:56 – 24. 24. Exprimir un tensor
3:34:57 – 25. 25. Codificación de tensores en caliente
3:40:44 – 26. Probando más operaciones matemáticas con tensores
3:45:31 – 27. 27. Uso de TensorFlow con NumPy
3:51:14 – INICIO DEL MÓDULO 1 (regresión de redes neuronales)
3:51:25 – [Keynote] 28. Introducción a la regresión de redes neuronales con TensorFlow
3:58:57 – [Keynote] 29. Entradas y salidas de un modelo de regresión
4:07:55 – [Keynote] 30. Arquitectura de un modelo de regresión de red neuronal
4:15:51 – 31. Creación de datos de regresión de muestra
4:28:39 – 32. Pasos en la modelización con TensorFlow
4:48:53 – 33. Pasos para mejorar un modelo parte 1
4:54:56 – 34. Pasos para mejorar un modelo parte 2
5:04:22 – 35. Pasos para mejorar un modelo, parte 3
5:16:55 – 36. Evaluación de un modelo parte 1 (“visualizar, visualizar, visualizar”)
5:24:20 – 37. Evaluación de un modelo parte 2 (los 3 conjuntos de datos)
5:35:22 – 38. Evaluación de un modelo parte 3 (resumen del modelo)
5:52:39 – 39. Evaluación de un modelo parte 4 (visualización de las capas)
5:59:56 – 40. Evaluación de un modelo parte 5 (visualización de predicciones)
6:09:11 – 41. Evaluación de un modelo parte 6 (métricas de evaluación de la regresión)
6:17:19 – 42. Evaluación de un modelo de regresión parte 7 (MAE)
6:23:10 – 43. Evaluación de un modelo de regresión parte 8 (MSE)
6:26:29 – 44. Experimentos de modelización parte 1 (empezar con un modelo sencillo)
6:40:19 – 45. Experimentos de modelización parte 2 (aumento de la complejidad)
6:51:49 – 46. Comparación y seguimiento de experimentos
7:02:08 – 47. Guardar un modelo
7:11:32 – 48. Cargar un modelo guardado
7:21:49 – 49. Guardar y descargar archivos de Google Colab
7:28:07 – 50. 50. Reunir lo que hemos aprendido 1 (preparar un conjunto de datos)
7:41:38 – 51. Reunir lo que hemos aprendido 2 (construir un modelo de regresión)
7:55:01 – 52. 52. Reunir lo que hemos aprendido 3 (mejorar nuestro modelo de regresión)
8:10:45 – [Código] 53. Preprocesamiento de datos 1 (conceptos)
8:20:21 – [Código] 54. Preprocesamiento de datos 2 (normalización de datos)
8:31:17 – [Código] 55. Preprocesamiento de datos 3 (ajuste de un modelo en los datos normalizados)
8:38:57 – INICIO DEL MÓDULO 2 (clasificación con redes neuronales)
8:39:07 – [Keynote] 56. Introducción a la clasificación de redes neuronales con TensorFlow
8:47:31 – [Keynote] 57. Entradas y salidas de la clasificación
8:54:08 – [Keynote] 58. Formas del tensor de entrada y salida de la clasificación
9:00:31 – [Keynote] 59. Arquitectura típica de un modelo de clasificación
9:10:08 – 60. Creación y visualización de datos de clasificación para el modelo
9:21:39 – 61. Comprobación de las formas de entrada y salida de nuestros datos de clasificación
9:26:17 – 62. Construyendo un modelo de clasificación no muy bueno
9:38:28 – 63. 63. Intentando mejorar nuestro modelo de clasificación no muy bueno
9:47:42 – 64. Creación de una función para visualizar las predicciones no tan buenas de nuestro modelo
10:02:50 – 65. Haciendo que nuestro pobre modelo de clasificación funcione para un conjunto de datos de regresión

Te puede interesar:  Transformers en Deep Learning

Aprende los fundamentos de TensorFlow y Deep Learning con Python Parte II

Has llegado a la segunda parte de la serie de vídeos más larga de aprendizaje profundo y TensorFlow en YouTube.

Esta parte continúa justo donde lo dejó la primera, así que abre la ventana de Google Colab y prepárate para escribir mucho más código TensorFlow.


Consigue todo el código/materiales en GitHub – https://www.github.com/mrdbourke/tens…
Haz una pregunta – https://github.com/mrdbourke/tensorfl…
Ver parte 1 – https://youtu.be/tpCFfeUEGs8
Documentación de TensorFlow Python – https://www.tensorflow.org/api_docs/p…

Marcas de tiempo:
0:00 – Introducción/hola/¿Has visto la parte 1? Si no, deberías
0:55 – 66. No linealidad parte 1 (líneas rectas y no rectas)
10:33 – 67. No linealidad parte 2 (construir nuestra primera red neuronal con una función de activación no lineal)
16:21 – 68. No linealidad parte 3 (mejorando nuestro modelo no lineal con más capas)
26:40 – 69. No linealidad parte 4 (modelando nuestros datos no lineales)
35:18 – 70. No linealidad parte 5 (reproduciendo nuestras funciones no lineales desde cero)
49:45 – 71. Conseguir grandes resultados en menos tiempo ajustando la tasa de aprendizaje
1:04:32 – 72. Uso del objeto histórico para trazar las curvas de pérdida de un modelo
1:10:43 – 73. Utilizar las devoluciones de llamada para encontrar la tasa de aprendizaje ideal de un modelo
1:28:16 – 74. Entrenamiento y evaluación de un modelo con una tasa de aprendizaje ideal
1:37:37 – [Nota clave] 75. Introducción de más métodos de clasificación
1:43:41 – 76. 76. Encontrar la precisión de nuestro modelo
1:47:59 – 77. 77. Creación de nuestra primera matriz de confusión
1:56:27 – 78. Hacer más bonita nuestra matriz de confusión
2:10:28 – 79. Clasificación multiclase parte 1 (preparación de los datos)
2:21:04 – 80. Clasificación multiclase, parte 2 (hacerse uno con los datos)
2:28:13 – 81. Clasificación multiclase, parte 3 (creación de un modelo multiclase)
2:43:52 – 82. Clasificación multiclase, parte 4 (mejorar nuestro modelo multiclase)
2:56:35 – 83. Clasificación multiclase, parte 5 (normalizada y no normalizada)
3:00:48 – 84. Clasificación multiclase parte 6 (encontrar la tasa de aprendizaje ideal)
3:11:27 – 85. Clasificación multiclase, parte 7 (evaluación de nuestro modelo)
3:25:34 – 86. Clasificación multiclase, parte 8 (creación de una matriz de confusión)
3:30:00 – 87. Clasificación multiclase, parte 9 (visualización de muestras aleatorias)
3:40:42 – 88. ¿Qué patrones está aprendiendo nuestro modelo?

Te puede interesar:  ¿Será reemplazada la programación por la IA en los próximos 10-15 años?

Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

Add a Comment

Your email address will not be published. Required fields are marked *