Catálogo Biblioteca Central UCSM

Vista normal Vista MARC Vista ISBD

Deep Learning con Phyton

Por: Chollet, Francois | [Autor].
Colaborador(es): Chollet, Francois.
Editor: ESPAÑA ; EDICIONES ANAYA MULTIMEDIA ; 2020Edición: 1A. ed.Descripción: 383; 22.5.Tema(s): PROGRMACIÓN | PYTHONClasificación CDD: 005.133.CHOL.00
Contenidos:
Agradecimientos. . -- Sobre el Autor . -- Introducción . -- Sobre Este Libro . -- Quién Debería Leer Este Libro . -- Estructura del Libro . -- Requisitos de Software/Hardware . -- Código Fuente . -- Foro del Libro . -- Sobre la Imagen de Cubierta. . -- Parte 1. Fundamentos del Deep Learning . -- Capítulo 1. ¿Qué es el Deep Learning? . -- 1.1. Inteligencia Artificial, Machine Learning y Deep Learning . -- 1.1.1. Inteligencia Artificial . -- 1.1.2. Machine Learning . -- 1.1.3. Aprender Representaciones de Datos . -- 1.1.4. El"Deep" en el Deep Learning . -- 1.1.5. Entender Cómo Funciona el Deep Learning en Tres Figuras. . -- 1.1.6. ¿Qué Ha Conseguido el Deep Learning Hasta Ahora . -- 1.1.7. no Crea en el Bombo Publicitario a Corto Plazo . -- 1.1.8. la Promesa de la Ia . -- 1.2. Antes del Deep Learning: una Breve Historia del Machine Learnin . -- 1.2.1. Modelo Probabilistico . -- 1.2.2. Primeras Redes Neuronales . -- 1.2.3. Métodos Kernel . -- 1.2.4. Árboles de Decisiones, Random Forests y Potenciación de Gradiente . -- 1.2.5. Regreso a las Redes Neuronales . -- 1.2.6. Qué Diferencia al Deep Learning . -- 1.2.7. el Paisaje Moderno del Machine Learning . -- 1.3. ¿Por Qué el Deep Learning? ¿Por Qué Ahora . -- 1.3.1. Hardware . -- 1.3.2. Datos . -- 1.3.3. Algoritmos . -- 1.3.4. una Nueva Oleada de Inversión . -- 1.3.5. la Democratización del Deep Learning . -- 1.3.6. ¿Durará? . -- Capítulo 2. los Bloques de Construcción Matemáticos de las Redes Neuronales . -- 2.1. un Primer Vistazo a una Red Neuronal . -- 2.2. Representaciones de Datos para Redes Neuronales . -- 2.2.1. Escalares (Tensores Od) . -- 2.2.2. Vectores (Tensores 1D . -- 2.2.3. Matrices (Tensores 2D) . -- 2.2.4. Tensores 3D y Tensores con Más Dimensiones 2.2.5. Atributos Clave 2.2.6. Manipular Tensores en Numpy 2.2.7. la Noción de Lotes de Datos 2.2.8. Ejemplos de Tensores de Datos en el Mundo Real 2.2.9. Datos Vectoriales 2.2.10. Datos de Series Temporales o de Secuencia 2.2.11. Datos de Imagen 2.2.12. Datos de Video 2.3. los Engranajes de las Redes Neuronales: Operaciones con Tensores 2.3.1. Operaciones Elemento a Elemento 2.3.2. Broadcasting 2.3.3. Producto Tensorial 2.3.4. Cambiar la Forma de Tensores 2.3.5. Interpretación Geométrica de las Operaciones con Tensores 2.3.6. Interpretación Geométrica del Deep Learning 2.4. el Motor de las Redes Neuronales: Optimización Basada en Gradiente 2.4.1. ¿Qué es una Derivada? 2.4.2. Derivada de una Operación con Tensores: el Gradiente 2.4.3. Descenso de Gradiente Estocástico 2.4.4. Encadenar Derivadas: el Algoritmo de Retropropagación 2.5. Volviendo al Primer Ejemplo Capítulo 3. Iniciarse en las Redes Neuronales 3.1. Anatomía de una Red Neuronal 3.1.1. Capas: los Bloques de Construcción del Deep Learning 3.1.2. Modelos: Redes de Capas 3.1.3. Funciones de Pérdida y Optimizadores: Claves para Configurar el Proceso de Aprendizaje 3.2. Introducción a Keras 3.2.1. Keras, Tensorflow, Theano y Cntk 3.2.2. Desarrollo con Keras: Resumen Genera 3.3. Configurar una Estación de Trabajo de Deep Learning 3.3.1. Notebooks de Jupyter: la Forma Preferida de Ejecutar Experimentos de Deep Learning 3.3.2. Poner Keras en Marcha: Dos Opciones 3.3.3. Ejecutar Trabajos de Deep Learning en la Nube: Pros y Contras 3.3.4. ¿Cuál es la Mejor Gpu para el Deep Learning? 3.4. Clasificar Críticas de Películas: Ejemplo de Clasificación Binaria 3.4.1. el Conjunto de Datos de Imdb 3.4.2. Preparar los Datos 3.4.3. Crear la Red 3.4.4. Validación de Nuestro Enfoque 3.4.5. Utilizar una Red Entrenada para Generar Predicciones con Datos Nuevos 3.4.6. Más Experimentos 3.4.7. Resumen 3.5. Clasificar Noticias: Ejemplo de Clasificación Multiclase. 3.5.1. el Conjunto de Datos de Reuters 3.5.2. Preparar los Datos 3.5.3. Crear la Red 3.5.4. Validar el Enfoque 3.5.5. Generar Predicciones en Datos Nuevos 3.5.6. una Forma Diferente de Manejar las Etiquetas y la Pérdida 3.5.7. la Importancia de Tener Capas Intermedias lo Bastante Grandes 3.5.8. Más Experimentos 3.5.9. Resumen 3.6. Predecir Precios de Casas: Ejemplo de Regresión . -- 3.6.1. el Conjunto de Datos de los Precios de las Casas de Boston 3.6.2. Preparar los Datos 3.6.3. Crear la Red 3.6.4. Validar Nuestro Enfoque Utilizando Validación de K Iteraciones 3.6.5. Resumen Capítulo 4. Fundamentos del Machine Learning 4.1. Cuatro Ramas de Machine Learning 4.1.1. Aprendizaje Supervisado 4.1.2. Aprendizaje no Supervisado 4.1.3. Aprendizaje Autosupervisado 4.1.4. Aprendizaje por Refuerzo 4.2. Evaluación de Modelos de Machine Learning 4.2.1. Conjuntos de Entrenamiento, Validación y Prueba 4.2.2.A Tener en Cuenta 4.3. Procesamiento de Datos, Ingeniería de Características y Aprendizaje de Características 4.3.1. Procesamiento de Datos para Redes Neuronales 4.3.2. Ingeniería de Características 4.4. Sobreajuste y Subajuste 4.4.1. Reducir el Tamaño de la Red. 4.4.2. Añadir Regularización de Peso. 4.4.3. Añadir Dropout 4.5. el Flujo de Trabajo Universal del Machine Learning 4.5.1. Definir el Problema y Montar un Conjunto de Datos 4.5.2. Elegir una Medida del Éxito 4.5.3. Decidir un Protocolo de Evaluación 4.5.4. Preparación de los Datos 4.5.5. Desarrollar un Modelo que lo Haga Mejor que un Modelo de Referencia 4.5.6. Ampliación: Desarrollar un Modelo con Sobreajuste 4.5.7. Regularización del Modeloy Ajuste de los Hiperpara.E.T.R. Parte 2. Deep Learning en la Práctica Capítulo 5. Deep Learning para Visión por Ordenador 5.1. Introducción a las Convnets… 5.1.1. la Operación de Convolución 5.1.2. la Operación Max Pooling 5.2. Entrenar una Convnet Desde Cero con un Conjunto de Datos Pequeño 5.2.1. la Relevancia del Deep Learning para Problemas con Pocos Datos 5.2.2. Descargar los Datos 5.2.3. Crear la Red 5.2.4. Procesamiento de Datos 5.2.5. Utilizar el Aumento de Datos 5.3. Utilizar una Convnet Preentrenada 5.3.1. Extracción de Características 5.3.2. Ajuste Fino 5.3.3. Resumen 5.4. Visualizar lo que Aprenden las Convnets 5.4.1. Visualizar Activaciones Intermedias 5.4.2. Visualizar Filtros de Convnet 5.4.3. Visualizar Mapas de Calor de Activación de Clase Capítulo 6. Deep Learning para Texto y Secuencias 6.1. Trabajar con Datos de Texto 6.1.1. Codificación One-Hot de Palabras y Caracteres 6.1.2. Utilizar Embeddings de Palabras 6.1.3. Juntar Todas las Piezas: de Texto Bruto a Embeddings de Palabras 6.1.4. Resumen . -- 6.2. Entender las Redes Neuronales Recurrentes 6.2.1. una Capa Recurrente en Keras 6.2.2. Comprender las Capas Lstmy Gru 6.2.3. Ejemplo Concreto de Lstm en Keras 6.2.4. Resumen 6.3. Uso Avanzado de las Redes Neuronales Recurrentes. 6.3.1. un Problema de Predicción de Temperatura 6.3.2. Preparar los Datos 6.3.3. un Punto de Referencia de Sentido Común Sin Machine Learning. 6.3.4. una Aproximación Básica con Machine Learning… 6.3.6. Usar el Dropout Recurrente para Combatir el Sobreajuste 6.3.5. una Primera Referencia Recurrente 6.3.7. Apilar Capas Recurrentes 6.3.8. Utilizar Rnr Bidireccionales 6.3.9. Ir Más Allá 6.3.10. Resumen 6.4. Procesamiento de Secuencias con Convnets 6.4.1. Comprender la Convolución 1D para Datos Secuenciales 6.4.2. Pooling 1D para Datos Secuenciales 6.4.3. Implementación de una Convnet 1D 6.4.4. Combinar Rnc y Rnr para Procesar Secuencias Largas. 6.4.5. Resumen. Capítulo 7. Prácticas Adecuadas de Deep Learning Avanzado 7.1. Más Allá del Modelo Sequential: la Api Funcional de Keras. 7.1.1. Introducción a la Api Funcional. 7.1.2. Modelos con Múltiples Entradas. 7.1.3. Modelos con Múltiples Salidas. 7.1.4. Grafos Acíclicos Dirigidos de Capas 7.1.5. Compartir Pesos de Capas 7.1.6. Modelos Como Capas 7.1.7. Resumen 7.2. Inspeccionar y Monitorizar Modelos de Deep Learning Utilizando Retrollamadas de Keras y Tensorboard 7.2.1. Utilizar Retrollamadas para Actuar en un Modelo Durante el Entrenamiento 7.2.2. Introducción a Tensorboard: el Framework de Visualización de Tensorflow 7.2.3. Resumen. 7.3. Sacar el Máximo Partido a Nuestros Modelos 7.3.1. Patrones de Arquitectura Avanzados. 7.3.2. Optimización de Hiperparámetros. 7.3.3. Ensamblaje de Modelos. 7.3.4. Resumen Capítulo 8. Deep Learning Generativo 8.1. Generación de Texto con Lstm 8.1.1. Breve Historia de las Redes Recurrentes Generativas 8.1.2. ¿Cómo Se Generan los Datos Secuenciales?.. 8.1.3. la Importancia de la Estrategia de Muestreo. 8.1.4. Implementación de Generación de Texto con Lstm a Nivel de Carácter 8.1.5. Resumen 8.2. Deepdream 8.2.1. Implementación de Deepdream en Keras 8.2.2.Resumen 8.3. Transferencia de Estilo Neuronal 8.3.1. la Pérdida de Contenido. 8.3.2. la Pérdida de Estilo 8.3.3. Transferencia de Estilo Neuronal en Keras. . -- 8.3.4. Resumen 8.4. Generar Imágenes con Autocodificadores Variacionales 8.4.1. Muestreo de Espacios Latentes de Imágenes. 8.4.2. Vectores Conceptuales para la Edición de Imágenes. 8.4.3. Autocodificadores Variacionales. 8.4.4. Resumen 8.5. Introducción a las Redes Generativas Antagónicas 8.5.1. Implementación Esquemática de una Gan 8.5.2. un Saco de Trucos 8.5.3. la Generadora. 8.5.4. la Discriminadora. 8.5.5. la Red Antagonista. 8.5.6. Cómo Entrenar la Dcgan 8.5.7. Resumen Capítulo 9. Conclusiones 9.1. Conceptos Clave para Revisar 9.1.1. Varios Enfoques de la Ia. 9.1.2. Qué Hace al Deep Learning Especial Dentro del Campo del Machine Learning 9.1.3. Cómo Pensar en el Deep Learning 9.1.4. Tecnologías Habilitadoras Clave 9.1.5. el Flujo de Trabajo Universal del Machine Learning 9.1.6. Arquitecturas de Red Clave 9.1.7. el Espacio de Posibilidades. 9.2. las Limitaciones del Deep Learning 9.2.1. Varios Enfoques de la Ia 9.2.2. Generalización Local Frente a Generalización Extrema. 9.2.3. Resumen 9.3. el Futuro del Deep Learning 9.3.1. Modelos Como Programas. 9.3.2. Más Allá de la Retropropagación y las Capas Diferenciables 9.3.3. Machine Learning Automatizado 9.3.4. Aprendizaje Permanente y Reutilización de Subrutinas Modulares. 9.3.5. la Visión a Largo Plazo 9.4. Mantenerse al Día en un Campo que Avanza Deprisa. 9.4.1. Practicar con Problemas del Mundo Real Utilizando Kaggle 9.4.2. Leer Sobre los Últimos Avances en Arxiv. 9.4.3. Explorar el 9.5. Despedida Parte 3. Apéndices Apéndice A.Instalar Keras y sus Dependencias en Ubuntu A.1. Instalar la Suite Científica de Python A.2. Configurar el Soporte para Gpu A.3. Instalar Theano (Opcional) A.4. Instalar Keras Apéndice B. Ejecutar Notebooks de Jupyter en una Instancia de Gpu en Ec2 B.1. ¿Qué Son los Notebooks de Jupyter? ¿Por Qué Ejecutar Notebooks de Jupyter en Gpu en Aws? B.2. ¿Por Qué no Querríamos Utilizar Jupyter en Aws para Deep Learning? B.3. Configurar una Instancia de Gpu en Aws. B.3.1. Configurar Jupyter B.4. Instalar Keras B.5. Configurar la Redirección del Puerto Local. B.6. Utilizar Jupyter Desde su Navegador Local. Índice Alfabético
Etiquetas de esta biblioteca: No hay etiquetas de esta biblioteca para este título.
    valoración media: 0.0 (0 votos)
Tipo de ítem Ubicación actual Colección Signatura Copia número Estado Fecha de vencimiento Código de barras
Libros Biblioteca Central
BIBCE-CSING (Biblioteca Central - 1er piso) 005.133.CHOL.00 (Navegar estantería) 1e. Disponible 73018

Agradecimientos.
. -- Sobre el Autor
. -- Introducción
. -- Sobre Este Libro
. -- Quién Debería Leer Este Libro
. -- Estructura del Libro
. -- Requisitos de Software/Hardware
. -- Código Fuente
. -- Foro del Libro
. -- Sobre la Imagen de Cubierta.
. -- Parte 1. Fundamentos del Deep Learning
. -- Capítulo 1. ¿Qué es el Deep Learning?
. -- 1.1. Inteligencia Artificial, Machine Learning y Deep Learning
. -- 1.1.1. Inteligencia Artificial
. -- 1.1.2. Machine Learning
. -- 1.1.3. Aprender Representaciones de Datos
. -- 1.1.4. El"Deep" en el Deep Learning
. -- 1.1.5. Entender Cómo Funciona el Deep Learning en Tres Figuras.
. -- 1.1.6. ¿Qué Ha Conseguido el Deep Learning Hasta Ahora
. -- 1.1.7. no Crea en el Bombo Publicitario a Corto Plazo
. -- 1.1.8. la Promesa de la Ia
. -- 1.2. Antes del Deep Learning: una Breve Historia del Machine Learnin
. -- 1.2.1. Modelo Probabilistico
. -- 1.2.2. Primeras Redes Neuronales
. -- 1.2.3. Métodos Kernel
. -- 1.2.4. Árboles de Decisiones, Random Forests y Potenciación de Gradiente
. -- 1.2.5. Regreso a las Redes Neuronales
. -- 1.2.6. Qué Diferencia al Deep Learning
. -- 1.2.7. el Paisaje Moderno del Machine Learning
. -- 1.3. ¿Por Qué el Deep Learning? ¿Por Qué Ahora
. -- 1.3.1. Hardware
. -- 1.3.2. Datos
. -- 1.3.3. Algoritmos
. -- 1.3.4. una Nueva Oleada de Inversión
. -- 1.3.5. la Democratización del Deep Learning
. -- 1.3.6. ¿Durará?
. -- Capítulo 2. los Bloques de Construcción Matemáticos de las Redes Neuronales
. -- 2.1. un Primer Vistazo a una Red Neuronal
. -- 2.2. Representaciones de Datos para Redes Neuronales
. -- 2.2.1. Escalares (Tensores Od)
. -- 2.2.2. Vectores (Tensores 1D
. -- 2.2.3. Matrices (Tensores 2D)
. -- 2.2.4. Tensores 3D y Tensores con Más Dimensiones 2.2.5. Atributos Clave 2.2.6. Manipular Tensores en Numpy 2.2.7. la Noción de Lotes de Datos 2.2.8. Ejemplos de Tensores de Datos en el Mundo Real 2.2.9. Datos Vectoriales 2.2.10. Datos de Series Temporales o de Secuencia 2.2.11. Datos de Imagen 2.2.12. Datos de Video 2.3. los Engranajes de las Redes Neuronales: Operaciones con Tensores 2.3.1. Operaciones Elemento a Elemento 2.3.2. Broadcasting 2.3.3. Producto Tensorial 2.3.4. Cambiar la Forma de Tensores 2.3.5. Interpretación Geométrica de las Operaciones con Tensores 2.3.6. Interpretación Geométrica del Deep Learning 2.4. el Motor de las Redes Neuronales: Optimización Basada en Gradiente 2.4.1. ¿Qué es una Derivada? 2.4.2. Derivada de una Operación con Tensores: el Gradiente 2.4.3. Descenso de Gradiente Estocástico 2.4.4. Encadenar Derivadas: el Algoritmo de Retropropagación 2.5. Volviendo al Primer Ejemplo Capítulo 3. Iniciarse en las Redes Neuronales 3.1. Anatomía de una Red Neuronal 3.1.1. Capas: los Bloques de Construcción del Deep Learning 3.1.2. Modelos: Redes de Capas 3.1.3. Funciones de Pérdida y Optimizadores: Claves para Configurar el Proceso de Aprendizaje 3.2. Introducción a Keras 3.2.1. Keras, Tensorflow, Theano y Cntk 3.2.2. Desarrollo con Keras: Resumen Genera 3.3. Configurar una Estación de Trabajo de Deep Learning 3.3.1. Notebooks de Jupyter: la Forma Preferida de Ejecutar Experimentos de Deep Learning 3.3.2. Poner Keras en Marcha: Dos Opciones 3.3.3. Ejecutar Trabajos de Deep Learning en la Nube: Pros y Contras 3.3.4. ¿Cuál es la Mejor Gpu para el Deep Learning? 3.4. Clasificar Críticas de Películas: Ejemplo de Clasificación Binaria 3.4.1. el Conjunto de Datos de Imdb 3.4.2. Preparar los Datos 3.4.3. Crear la Red 3.4.4. Validación de Nuestro Enfoque 3.4.5. Utilizar una Red Entrenada para Generar Predicciones con Datos Nuevos 3.4.6. Más Experimentos 3.4.7. Resumen 3.5. Clasificar Noticias: Ejemplo de Clasificación Multiclase. 3.5.1. el Conjunto de Datos de Reuters 3.5.2. Preparar los Datos 3.5.3. Crear la Red 3.5.4. Validar el Enfoque 3.5.5. Generar Predicciones en Datos Nuevos 3.5.6. una Forma Diferente de Manejar las Etiquetas y la Pérdida 3.5.7. la Importancia de Tener Capas Intermedias lo Bastante Grandes 3.5.8. Más Experimentos 3.5.9. Resumen 3.6. Predecir Precios de Casas: Ejemplo de Regresión
. -- 3.6.1. el Conjunto de Datos de los Precios de las Casas de Boston 3.6.2. Preparar los Datos 3.6.3. Crear la Red 3.6.4. Validar Nuestro Enfoque Utilizando Validación de K Iteraciones 3.6.5. Resumen Capítulo 4. Fundamentos del Machine Learning 4.1. Cuatro Ramas de Machine Learning 4.1.1. Aprendizaje Supervisado 4.1.2. Aprendizaje no Supervisado 4.1.3. Aprendizaje Autosupervisado 4.1.4. Aprendizaje por Refuerzo 4.2. Evaluación de Modelos de Machine Learning 4.2.1. Conjuntos de Entrenamiento, Validación y Prueba 4.2.2.A Tener en Cuenta 4.3. Procesamiento de Datos, Ingeniería de Características y Aprendizaje de Características 4.3.1. Procesamiento de Datos para Redes Neuronales 4.3.2. Ingeniería de Características 4.4. Sobreajuste y Subajuste 4.4.1. Reducir el Tamaño de la Red. 4.4.2. Añadir Regularización de Peso. 4.4.3. Añadir Dropout 4.5. el Flujo de Trabajo Universal del Machine Learning 4.5.1. Definir el Problema y Montar un Conjunto de Datos 4.5.2. Elegir una Medida del Éxito 4.5.3. Decidir un Protocolo de Evaluación 4.5.4. Preparación de los Datos 4.5.5. Desarrollar un Modelo que lo Haga Mejor que un Modelo de Referencia 4.5.6. Ampliación: Desarrollar un Modelo con Sobreajuste 4.5.7. Regularización del Modeloy Ajuste de los Hiperpara.E.T.R. Parte 2. Deep Learning en la Práctica Capítulo 5. Deep Learning para Visión por Ordenador 5.1. Introducción a las Convnets… 5.1.1. la Operación de Convolución 5.1.2. la Operación Max Pooling 5.2. Entrenar una Convnet Desde Cero con un Conjunto de Datos Pequeño 5.2.1. la Relevancia del Deep Learning para Problemas con Pocos Datos 5.2.2. Descargar los Datos 5.2.3. Crear la Red 5.2.4. Procesamiento de Datos 5.2.5. Utilizar el Aumento de Datos 5.3. Utilizar una Convnet Preentrenada 5.3.1. Extracción de Características 5.3.2. Ajuste Fino 5.3.3. Resumen 5.4. Visualizar lo que Aprenden las Convnets 5.4.1. Visualizar Activaciones Intermedias 5.4.2. Visualizar Filtros de Convnet 5.4.3. Visualizar Mapas de Calor de Activación de Clase Capítulo 6. Deep Learning para Texto y Secuencias 6.1. Trabajar con Datos de Texto 6.1.1. Codificación One-Hot de Palabras y Caracteres 6.1.2. Utilizar Embeddings de Palabras 6.1.3. Juntar Todas las Piezas: de Texto Bruto a Embeddings de Palabras 6.1.4. Resumen
. -- 6.2. Entender las Redes Neuronales Recurrentes 6.2.1. una Capa Recurrente en Keras 6.2.2. Comprender las Capas Lstmy Gru 6.2.3. Ejemplo Concreto de Lstm en Keras 6.2.4. Resumen 6.3. Uso Avanzado de las Redes Neuronales Recurrentes. 6.3.1. un Problema de Predicción de Temperatura 6.3.2. Preparar los Datos 6.3.3. un Punto de Referencia de Sentido Común Sin Machine Learning. 6.3.4. una Aproximación Básica con Machine Learning… 6.3.6. Usar el Dropout Recurrente para Combatir el Sobreajuste 6.3.5. una Primera Referencia Recurrente 6.3.7. Apilar Capas Recurrentes 6.3.8. Utilizar Rnr Bidireccionales 6.3.9. Ir Más Allá 6.3.10. Resumen 6.4. Procesamiento de Secuencias con Convnets 6.4.1. Comprender la Convolución 1D para Datos Secuenciales 6.4.2. Pooling 1D para Datos Secuenciales 6.4.3. Implementación de una Convnet 1D 6.4.4. Combinar Rnc y Rnr para Procesar Secuencias Largas. 6.4.5. Resumen. Capítulo 7. Prácticas Adecuadas de Deep Learning Avanzado 7.1. Más Allá del Modelo Sequential: la Api Funcional de Keras. 7.1.1. Introducción a la Api Funcional. 7.1.2. Modelos con Múltiples Entradas. 7.1.3. Modelos con Múltiples Salidas. 7.1.4. Grafos Acíclicos Dirigidos de Capas 7.1.5. Compartir Pesos de Capas 7.1.6. Modelos Como Capas 7.1.7. Resumen 7.2. Inspeccionar y Monitorizar Modelos de Deep Learning Utilizando Retrollamadas de Keras y Tensorboard 7.2.1. Utilizar Retrollamadas para Actuar en un Modelo Durante el Entrenamiento 7.2.2. Introducción a Tensorboard: el Framework de Visualización de Tensorflow 7.2.3. Resumen. 7.3. Sacar el Máximo Partido a Nuestros Modelos 7.3.1. Patrones de Arquitectura Avanzados. 7.3.2. Optimización de Hiperparámetros. 7.3.3. Ensamblaje de Modelos. 7.3.4. Resumen Capítulo 8. Deep Learning Generativo 8.1. Generación de Texto con Lstm 8.1.1. Breve Historia de las Redes Recurrentes Generativas 8.1.2. ¿Cómo Se Generan los Datos Secuenciales?.. 8.1.3. la Importancia de la Estrategia de Muestreo. 8.1.4. Implementación de Generación de Texto con Lstm a Nivel de Carácter 8.1.5. Resumen 8.2. Deepdream 8.2.1. Implementación de Deepdream en Keras 8.2.2.Resumen 8.3. Transferencia de Estilo Neuronal 8.3.1. la Pérdida de Contenido. 8.3.2. la Pérdida de Estilo 8.3.3. Transferencia de Estilo Neuronal en Keras.
. -- 8.3.4. Resumen 8.4. Generar Imágenes con Autocodificadores Variacionales 8.4.1. Muestreo de Espacios Latentes de Imágenes. 8.4.2. Vectores Conceptuales para la Edición de Imágenes. 8.4.3. Autocodificadores Variacionales. 8.4.4. Resumen 8.5. Introducción a las Redes Generativas Antagónicas 8.5.1. Implementación Esquemática de una Gan 8.5.2. un Saco de Trucos 8.5.3. la Generadora. 8.5.4. la Discriminadora. 8.5.5. la Red Antagonista. 8.5.6. Cómo Entrenar la Dcgan 8.5.7. Resumen Capítulo 9. Conclusiones 9.1. Conceptos Clave para Revisar 9.1.1. Varios Enfoques de la Ia. 9.1.2. Qué Hace al Deep Learning Especial Dentro del Campo del Machine Learning 9.1.3. Cómo Pensar en el Deep Learning 9.1.4. Tecnologías Habilitadoras Clave 9.1.5. el Flujo de Trabajo Universal del Machine Learning 9.1.6. Arquitecturas de Red Clave 9.1.7. el Espacio de Posibilidades. 9.2. las Limitaciones del Deep Learning 9.2.1. Varios Enfoques de la Ia 9.2.2. Generalización Local Frente a Generalización Extrema. 9.2.3. Resumen 9.3. el Futuro del Deep Learning 9.3.1. Modelos Como Programas. 9.3.2. Más Allá de la Retropropagación y las Capas Diferenciables 9.3.3. Machine Learning Automatizado 9.3.4. Aprendizaje Permanente y Reutilización de Subrutinas Modulares. 9.3.5. la Visión a Largo Plazo 9.4. Mantenerse al Día en un Campo que Avanza Deprisa. 9.4.1. Practicar con Problemas del Mundo Real Utilizando Kaggle 9.4.2. Leer Sobre los Últimos Avances en Arxiv. 9.4.3. Explorar el 9.5. Despedida Parte 3. Apéndices Apéndice A.Instalar Keras y sus Dependencias en Ubuntu A.1. Instalar la Suite Científica de Python A.2. Configurar el Soporte para Gpu A.3. Instalar Theano (Opcional) A.4. Instalar Keras Apéndice B. Ejecutar Notebooks de Jupyter en una Instancia de Gpu en Ec2 B.1. ¿Qué Son los Notebooks de Jupyter? ¿Por Qué Ejecutar Notebooks de Jupyter en Gpu en Aws? B.2. ¿Por Qué no Querríamos Utilizar Jupyter en Aws para Deep Learning? B.3. Configurar una Instancia de Gpu en Aws. B.3.1. Configurar Jupyter B.4. Instalar Keras B.5. Configurar la Redirección del Puerto Local. B.6. Utilizar Jupyter Desde su Navegador Local. Índice Alfabético

No hay comentarios para este ejemplar.

Ingresar a su cuenta para colocar un comentario.

Haga clic en una imagen para verla en el visor de imágenes