A2A.
Esta pregunta está bastante cerca de las preguntas más frecuentes en el aprendizaje automático: ¿cómo aprendo el aprendizaje automático? Recomiendo mirar el consejo allí.
Copiaré a continuación mi respuesta a esa pregunta, para completar:
- ¿Qué tan fácil o difícil es conseguir un trabajo como analista / científico de datos para un graduado de ingeniería (más reciente) en India?
- ¿Debo seguir Ciencias de la Computación / Programación?
- ¿Qué cosas debo hacer en mis 4 años de ciencias informáticas de B.Tech para asegurar un buen trabajo?
- ¿Cuáles son los beneficios de estar certificado en LabVIEW?
- ¿Cómo debo utilizar mis vacaciones de verano si soy un estudiante de CSE de tercer año?
La respuesta dependerá significativamente de cuál sea su experiencia actual y para qué desea aprender el aprendizaje automático.
Para tener una base matemática básica, debe tener algún conocimiento de los siguientes conceptos matemáticos:
– Probabilidades y estadísticas
– Álgebra lineal
– Optimización
– Cálculo multivariable
– Análisis funcional (no esencial)
– Lógica de primer orden (no esencial)
Puede encontrar material razonable sobre la mayoría de estos buscando “notas de conferencia ” en Google. Por lo general, encontrará buenas notas de clase compiladas por un profesor que enseña ese curso. Los primeros resultados deberían darle un buen conjunto para elegir.
Hojear a través de estos. No es necesario que los revise con mucho detalle. Puede volver a estudiar matemáticas cuando sea necesario mientras aprende ML.
Una vez que te sientas cómodo con las matemáticas básicas, puedes comenzar con un curso en línea o uno de los libros estándar sobre aprendizaje automático. El curso de Andrew Ng sobre Coursera es un buen punto de partida. Una versión avanzada del curso está disponible en The Open Academy (Machine Learning | The Open Academy). Los libros estándar con los que tengo experiencia son los siguientes:
Reconocimiento de patrones y aprendizaje automático: Christopher Bishop
Aprendizaje automático: una perspectiva probabilística: Kevin P. Murphy
Si bien el libro de Murphy es más actual y más elaborado, creo que Bishop es más accesible para los principiantes. Puedes elegir uno de ellos según tu nivel.
En este punto, debe tener un conocimiento práctico del aprendizaje automático. Más allá de esto, si está interesado en un tema en particular, busque recursos en línea específicos sobre el tema, lea documentos seminales en el subcampo, intente encontrar algunos problemas más simples e impleméntelos.
Es importante destacar que hay muchos algoritmos / paradigmas en el aprendizaje automático. Si bien debe tener alguna comprensión de estos, es igualmente importante tener la intuición básica del aprendizaje automático: conceptos de compensación de sesgo-varianza, sobreajuste, regularización, dualidad, etc. Estos conceptos a menudo se usan en la mayoría o en todo el aprendizaje automático, de una forma u otra
Finalmente, es importante implementar algunos algoritmos básicos cuando comience a hacer ML, como descenso de gradiente, AdaBoost, árboles de decisión, etc. También debe tener algo de experiencia con el preprocesamiento de datos, la normalización, etc. Una vez que haya implementado algunos algoritmos desde cero , para otros algoritmos, debe usar las implementaciones estándar (como LibSVM, Weka, ScikitLearn, etc.) en algunos problemas de juguetes, y obtener una buena comprensión de los diferentes algoritmos.
Además, aquí hay una lista que compilé hace un tiempo para explorar el aprendizaje automático en 10 días:
Día 1:
- Terminología básica:
- Configuraciones más comunes: configuración supervisada, configuración no supervisada, configuración semi-supervisada, aprendizaje de refuerzo.
- Problemas más comunes: Clasificación (binaria y multiclase), Regresión, Agrupación.
- Preprocesamiento de datos: normalización de datos.
- Conceptos de conjuntos de hipótesis, error empírico, error verdadero, complejidad de conjuntos de hipótesis, regularización, compensación de sesgo-varianza, funciones de pérdida, validación cruzada.
Dia 2:
- Conceptos básicos de optimización:
- Terminología y conceptos básicos: optimización convexa, lagrangiana, problemas primarios-duales, gradientes y subgraduados, [math] \ ell_1 [/ math] y [math] \ ell_2 [/ math] funciones objetivo regularizadas.
- Algoritmos: descenso de gradiente por lotes y descenso de gradiente estocástico, descenso de gradiente coordinado.
- Implementación: escriba código para el descenso de gradiente estocástico para una función objetivo simple, ajuste el tamaño del paso y obtenga una intuición del algoritmo.
Día 3:
- Clasificación:
- Regresión logística
- Máquinas de vectores de soporte: intuición geométrica, formulaciones primarias-duales, noción de vectores de soporte, truco del núcleo, comprensión de hiperparámetros, búsqueda en cuadrícula.
- Herramienta en línea para SVM: juegue con esta herramienta SVM en línea (desplácese hacia abajo hasta “Interfaz gráfica”) para tener una idea del algoritmo.
Día 4:
- Regresión:
- Regresión de cresta
- Agrupación:
- algoritmo k-means y Expectation-Maximization.
- Agrupación jerárquica de arriba hacia abajo y de abajo hacia arriba.
Dia 5:
- Métodos bayesianos:
- Terminología básica: Prioridades, posteriores, probabilidad, estimación de máxima probabilidad e inferencia máxima a posteriori.
- Modelos de mezcla gaussiana
- Asignación de Dirichlet latente: El modelo generativo y la idea básica de la estimación de parámetros.
Día 6:
- Modelos gráficos:
- Terminología básica: redes bayesianas, redes de Markov / campos aleatorios de Markov.
- Algoritmos de inferencia: eliminación de variables, propagación de creencias.
- Ejemplos simples: Modelos ocultos de Markov. Modelo ising.
Días 7–8:
- Redes neuronales:
- Terminología básica: neurona, función de activación, capa oculta.
- Redes neuronales convolucionales: capa convolucional, capa de agrupación, retropropagación.
- Redes neuronales basadas en memoria: redes neuronales recurrentes, memoria a corto y largo plazo.
- Tutoriales: estoy familiarizado con este tutorial de la antorcha (querrá consultar el directorio [math] \ texttt {1_supervised} [/ math]). Puede haber otros tutoriales en otros marcos de aprendizaje profundo.
Día 9:
- Temas varios:
- Árboles de decisión
- Sistemas de recomendación
- Procesos de decisión de Markov
- Bandidos multi-armados
Día 10: (día de presupuesto)
- Puede usar el último día para ponerse al día con lo que queda de días anteriores, o aprender más sobre el tema que le parezca más interesante / útil para su trabajo futuro.