. . . Machine Learning en Python

Marchine Learning: Data Science en Python:

Índice de la página:
Datos.


------------------------------------------------------------------------------- 
Datos:
Este curso es de Juan Gabriel Gomilla Salas, y ha creado una web para comunicarnos los alumnos, y otros muchos complementos. Los datos para la web son:
    Correo: melgon55@gmail.com
     Contraseña: 936916607


ÍNDICE DEL CURSO:
Sección 1: Introducción
Sección 2: Instalando nuestras herramientas de trabajo.
Sección 3: Una introducción al análisis predictivo y al Machine Learning.
Sección 4: Limpieza de Datos.
Sección 5: Operaciones de manejo de Datos.
     38. Data Wrangling
     39. Una chuleta de pandas para Data Wrangling
     40. Fe de erratas
     41. Buscar un subconjunto de datos de un dataset
     42. Filtrados alternativos
     43. Subconjuntos de filas con ciertas condiciones
     44. Subconjuntos con loc e iloc y creación de nuevas
     45. Generar números aleatorios
     46. La semilla de la generación aleatoria
     47. Funciones de distribución de probabilidades
     48. La distribución uniforme
     49. La distribución Normal
     50. El método de la simulación de Monte-Carlo para encontrar el valor de Pi
     51. Generando dummy data frames
     52. Un dummy data frame con variables categóricas
     53. Agrupación de los datos por categorías
     54. Agregación de datos
     55. Filtrado, Transformación y otras operaciones útiles
     56. Conjunto de entrenamiento y de testing
     57. Actualización: cómo dividir conjunto de entrenamiento y test
     58. Muestreo aleatorio: cómo dividir un dataset en conjunto de entreno y validación
     59. Concatenar dos datasets por filas
     60. Carga de cientos de datos distribuidos
     61. Ejercicio: el data set de los juegos olímpicos
     62. Concatenar los datos con merge
     63. Formas de cruzar tablas con joins (00:14)
           Nos comenta los 3 tipos de joins que existen. Ver imágenes en la celda del notebook, con la librería 
           "Image". Importarla from IPython.display import Image
     64. Eliminar datos de datasets con restricciones de conjunto
     65. Ejemplos de joins con Python
     66. Ya conoces las bases del manejo de datos
           Hace un resumen de toda la Sección
     67. ¿Te gusta el curso? ¡Valóralo y cuéntanos tu opinión!

Sección 6: Conceptos básicos de estadística para la modelización predictiva.
     68. Los conceptos fundamentales de estadística
           Nos hace un resumen de lo que veremos en esta sección.
     69. Un resumen de los estadísticos básicos (en R)
     70. El resumen de estadísticos en Python (propuesta de un estudiante)
     71. Muestreo aleatorio y el teorema central del límite 
     72. Los contrastes de hipótesis
     73. Cómo hacer un contraste de hipótesis pasa a paso
     74. Test de la chi cuadrado
     75. Correlación entre variables
           Da un ejemplo en Python de correlación de varias columnas
     76. Un resumen de lo aprendido

Sección 7: Regresión lineal con Python.
     77. La regresión lineal
     78. Las matemáticas tras una regresión lineal
     79. Demostración de la obtención de los parámetros del modelo lineal
     80. Errores normalmente distribuidos
     81. Sumas de los cuadrados totales, de las diferencias y de la regresión
     82. Ejercicio demostrar que SST = SSR + SSD
     83. Encontrando los coeficientes óptimos de la regresión
     84. Interpretar los parámetros de la regresión
     85. Implementar una regresión lineal con Python
     86. Regresión lineal múltiple
     87. El problema de la multicolinealidad
     88. Validando nuestro modelo
     89. El resumen de todos los modelos lineales creados
     90. Regresión lineal con scikit-learn
     91. Modelos lineales con variables categóricas
     92. Variables categóricas en una regresión lineal
     93. Otra forma más simple de calcular las predicciones
     94. Enmascarado de variables categóricas redundantes
     95. Transformar las variables en relaciones no lineales
     96. El problema de los outliers
     97. Otros problemas y consideraciones de la regresión lineal
     98. Un resumen de la regresión lineal

Sección 8: Regresión logística con Python.
     99. La regresión logística con Python
     100. Regresión lineal vs regresión logística
     101. Las matemáticas detrás de la regresión logística
     102. Probabilidades condicionadas
     103. Cociente de probabilidades
     104. De la regresión lineal a la logística
     105. Estimación con el método de máxima verosimilitud
     106. Crear un modelo logístico desde cero
     107. Análisis exploratorio de los datos
     108. La selección de variables del dataset para el modelo
     109. Implementar una regresión logística con Python
     110. Validación del modelo y evaluación del mismo
     111. La validación cruzada
     112. Validación cruzada con Python
     113. Las matrices de confusión y las curvas ROC
     114. Implementación de las curvas ROC en Python
     115. Resumen de la regresión logística

Sección 9: Clustering y clasificación.
     116. Clustering
     117. ¿Qué es y para qué sirve el clustering?
     118. El concepto de distancia
     119. Matriz de distancias en Python
     120. Métodos de enlace
     121. Uniendo datos manualmente
     122. Clustering jerárquico en Python
     123. Un clustering completo: la fase de exploración de datos
     124. Un clustering completo: representación del dendrograma
     125Un clustering completo: por donde cortamos el dendrograma
     126Un clustering completo: visualización final del clustering
     127. El método de K-means
     128. Implementando K-means con Python
     129. Ejercicio: Segmentación de los vinos
     130. El método del codo
     131. El coeficiente de la silueta
     132. Implementando la técnica del codo y el coeficiente de la silueta
     133. Propagación de la afinidad
     134. Implementando la propagación de la afinidad
     135. Generando distribuciones en forma de anillo
     136. Los K medoides y el clustering espectral
     137. Resumen del clustering


Sección 10: Árboles y bosques aleatorios.
     137
     137
     137

Sección 11: Máquinas de Soporte Vectorial.
Sección 12: K Nearest Neighbors.
Sección 13: Sistemas de recomendación.
Sección 14: Análisis de componentes principales.
Sección 15: Introducción a las redes neuronales y al deep learning con TensorFlow.
Sección 16: Juntar código de R y Python con la librería rpy2.
Sección 17: ¿Qué nos depara el futuro ?