TY - BOOK AU - Cuevas, Erick AU - Avalos, Omar AU - Díaz, Primitivo AU - Valdivia, Arturo AU - Pérez, Marco TI - Introduccion al Machine Learning con Matlab U1 - 621.3011.CUEV.00 CY - ESPAÑA KW - PROGRAMACIÓN NUEVAS TECNOLOGÍAS TICS COMPUTACIÓN N1 - Capítulo 1. Fundamentos del Machine Learning . -- 1.1. Introducción . -- 1.2. Conceptos Sobre Datos . -- 1.3. Conceptos Sobre Aprendizaje . -- 1.4. Tipos de Problemas . -- 1.5. Tipos de Datos . -- 1.6. Tipos de Aprendizajes . -- 1.7. Etapas de Implementación del Aprendizaje Máquina . -- 1.8. Exploración y Preparación de Datos . -- 1.9. Visualización de Datos . -- Referencias . -- Capítulo 2. Bases Matemáticas . -- 2.1. Introducción . -- 2.2. Probabilidad . -- 2.2.1. Variables Aleatorias Discretas . -- 2.2.2. Reglas Fundamentales . -- 2.2.2.1. Probabilidad de la Unión de Dos Elementos . -- 2.2.2.2. Probabilidad de la Intersección de Dos Elementos . -- 2.2.2.3. Probabilidad Condicional . -- 2.2.3. Algunas Distribuciones Comunes . -- 2.2.3.1. Distribución Binomial y Bernoulli . -- 2.2.3.2. Distribución Multinomial . -- 2.2.3.3. Distribución de Poisson . -- 2.2.3.4. Distribución Uniforme . -- 2.2.3.5. Distribución Normal (Gaussiana) . -- 2.3. Estadística . -- 2.3.1. Medidas de Tendencia Central . -- 2.3.1.1. Media Aritmética . -- 2.3.1.2. Mediana . -- 2.3.1.3. Moda . -- 2.3.2. Medidas de Variabilidad . -- 2.3.2.1. Varianza . -- 2.3.2.2. Desviación Estándar . -- 2.3.2.3. Rango 2.3.3. Herramientas Gráficas 2.3.3.1. Gráfica de Líneas 2.3.3.2. Gráfica de Barras 2.3.3.3. Gráfica de Cajas 2.3.3.4. Histograma 2.4. Álgebra Lineal 2.4.1. Vectores y Matrices 2.4.2. Suma, Resta y Producto Escalar de Vectores 2.4.3. Norma Vectorial 2.4.3.1. Norma L 1 2.4.3.2. Norma L 2 2.4.4. Matrices 2.4.4.1. Suma, Resta y Multiplicación de Matrices 2.4.4.2. Multiplicación Escalar de una Matriz 2.4.4.3. Multiplicación de Matrices 2.4.5. Tipo de Matrices 2.4.6. Descomposición de Matrices 2.4.6.1. Descomposición Lu 2.4.6.2. Descomposición de los Valores y Vectores Propios Referencias Capítulo 3. Clasificación 3.1. Introducción 3.2. Vecinos Cercanos (K-Nn) 3.2.1. Ejemplo de Clasificación Utilizando K-Nn en Matlab 3.3. Regresión Logística 3.3.1. Ejemplo de Clasificación Utilizando la Regresión Logística en Matlab 3.4. Naive Bayes 3.4.1. Teorema de Bayes 3.4.2. Clasificador Naive Bayes 3.4.3. Ejemplo de Clasificación Naive Bayes Utilizando Matlab 3.5. Análisis del Discriminante de Fisher 3.5.1. Ejemplo de Clasificación Mediante Discriminante de Fisher Utilizando Matlab . 3.6. Máquina de Vector Soporte (Svm) 3.6.1. Ejemplo de Clasificación con Máquina Vector Soporte Utilizando Matlab .. Referencias Capítulo 4. Regresión Lineal 4.1. Introducción 4.2. Regresión Lineal Simple 4.3. Mínimos Cuadrados 4.4. Gradiente Descendente en Regresión Lineal Simple 4.5. Ecuación Normal en Regresión Lineal Simple 4.6. Regresión Lineal Múltiple Referencias Capítulo 5. Agrupamiento (Clustering) 5.1. Introducción 5.2. Algoritmo de K-Means 5.2.1. el Uso de K-Means en Matlab 5.3. Método de Expectación-Maximización 5.3.1. Modelos de Mezclas Gaussianas 5.3.2. Estimación de Máxima Probabilidad 5.3.3. Em en una Dimensión . -- 5.3.4. Em en Varias Dimensiones 5.4. Agrupación Jerárquica 5.4.1. Medidas de Similaridad Entre los Clústeres 5.5. el Algoritmo de Fuzzy C-Means Referencias Capítulo 6. Reducción de Dimensionalidad 6.1. Introducción 6.2. Análisis de Componentes Principales (Pca) 6.2.1. Ejemplo en Matlab de Análisis de Componentes Principales (Pca) 6.3. Análisis de Componentes Independientes (Ica) 6.3.1. Distribuciones Gaussianas no Permitidas 6.3.2. Estimación de Máxima Probabilidad 6.3.3. Ejemplo en Matlab de Análisis de Componentes Independientes (Ica) 6.4. Análisis de Factor (Fa) 6.4.1. Ejemplo en Matlab de Análisis de Factor (Fa) Referencias Capítulo 7. Métodos Unidos 7.1. Árboles de Decisión 7.2. Algoritmo Cart 7.3. Árboles de Decisión para Clasificación 7.4. Árboles de Decisión para Regresión 7.5. Funciones de Matlab para Árboles de Decisión 7.6. el Método Bootstrap Referencias Capítulo 8. Reconocimiento de Objetos 8.1. Comparación en Imágenes a Escala de Grises 8.2. Distancia Entre Patrones 8.3. Distancia y Correlación 8.4. la Correlación Cruzada Normalizada 8.5. Coeficiente de Correlación 8.6. Reconocimiento de Patrones Usando el Coeficiente de Correlación 8.7. Comparación de Imágenes Binarias 8.7.1. la Transformación de Distancia 8.7.2. el Algoritmo de Chamfer 8.8. Índice de Relación de Chamfer Referencias Capítulo 9. Estadística Inferencial 9.1. Introducción 9.2. Distribución de Muestreo 9.2.1. Distribución Normal 9.2.2. Distribución T 9.3. Estimación de Parámetros 9.3.1. Estimación por Intervalos 9.4. Pruebas de Hipótesis Referencias Capítulo 10. Evaluación del Desempeño 10.1. Introducción 10.2. Ajustes Sobre las Predicciones de un Clasificador 10.2.1. Tipos de Errores 10.2.2. Matriz de Confusión 10.3. Métricas para Clasificadores . -- 10.3.1. Exactitud (Acc) 10.3.2. Razón de Falsos Positivos (Fpr) 10.3.3. Sensibilidad (Vpr) 10.3.4. Especificidad (Spc) 10.3.5. Precisión 10.3.6. F1 10.3.7. F2 10.4. Curva Roc 10.5. el Balance Entre el Sesgo y la Varianza 10.6. Evaluación de Modelos 10.6.1. Técnicas Comunes de Validación Cruzada 10.7. Métricas de Error en Regresores Lineales Referencias ER -