En términos de matemática y lógica, ¿cuál es más desafiante, el aprendizaje automático supervisado o el aprendizaje automático no supervisado?

En términos de matemáticas, ambos son extremadamente simples. Quiero decir, vamos, ¿qué es tan complicado en k-means o la optimización SGD?

Son los métodos los que te fastidiarán con el cerebro.

Cuando tiene un conjunto de datos etiquetado para el aprendizaje supervisado, todo lo que necesita es una función sensata de pérdida diferenciable, cierta regularización, un optimizador y ya está todo listo. Todo es como en un libro de texto.

El aprendizaje no supervisado le da otro problema, a saber, “¿qué demonios se supone que debo hacer con él?”. La tarea práctica que está tratando de resolver puede corresponder o no a la estructura interna de esos datos; en otras palabras, supongamos que tiene una agrupación de algunos puntos que es robusta y se ve bien. Si examina los grupos, puede encontrar que todo lo que necesita hacer es colocar algunas etiquetas en esos grupos y obtendrá una clasificación decente. O no. Tal vez se vean como una papilla, y en este caso tendrá que buscar otro proyector que le brinde un conjunto de grupos más adecuado.

Lo difícil aquí no es implementar el algoritmo de aprendizaje en sí mismo, sino encontrar una técnica inteligente para usarlo, buenos ejemplos del pasado están agrupados con diferentes métricas y métodos de salto de gramo / CBOW para aprender representaciones de texto. Este último es un buen MLP antiguo que es un nivel de tarea en el mejor de los casos, pero la idea detrás de esto es tonto.

Pero debería decir que esto es cierto solo para algoritmos ampliamente utilizados. Existen algunos métodos novedosos como las redes de confrontación generativa (GAN) que se utilizan con éxito para generar imágenes y, en mi opinión, son muy sofisticados.

Ambos.!

No hay una regla de oro para sugerir cuál es más fácil. Menos o más número de algoritmos o matemáticas más fáciles o más difíciles no es una buena métrica para entender el desafío que representan estas dos técnicas. Ambas técnicas se relacionan con dos metodologías diferentes en el espacio de ML y, dependiendo de su problema o datos, ambas pueden ser fáciles y difíciles al mismo tiempo. Si tiene datos separables linealmente, tanto el aprendizaje supervisado como el no supervisado son casi triviales. Sin embargo, en situaciones del mundo real, el tipo de problemas que queremos resolver y el tipo de datos que recopilamos o tenemos es complejo. Por lo tanto, comprender el problema es más desafiante que decidir qué metodología puede ser más desafiante.

Es posible que desee leer más sobre las dos técnicas aquí: la respuesta de Shehroz Khan a ¿Cuál es la diferencia entre los algoritmos de aprendizaje supervisados ​​y no supervisados?

No estoy seguro de si hay un acuerdo general sobre esto, pero me inclinaría hacia sin supervisión porque:

  • Tiene menos información, por lo que, a diferencia del aprendizaje supervisado, no se le proporciona información de la etiqueta sobre sus datos.
  • Su algoritmo necesita encontrar características predictivas en sus datos que permitan agrupar muestras descubriendo correlaciones estadísticas
  • Calcular las métricas para el aprendizaje no supervisado es difícil, ya que no se pueden calcular precisiones y realizar validaciones cruzadas. No sabe cuál sería la etiqueta correcta (en una configuración totalmente sin supervisión)

Y en general: ¡el aprendizaje automático y especialmente sin supervisión no son problemas triviales!

En mi opinión, el aprendizaje automático supervisado es más difícil. en el aprendizaje no supervisado, por un lado, tiene menos algoritmos para aprender: aparte de la agrupación y sus derivados y / o variaciones, no hay mucho más (que yo sepa). Además, no hay una cantidad medible que esté buscando … así que una vez que haya terminado su trabajo, nadie puede decir que tiene que hacerlo mejor …

En el aprendizaje supervisado, hay una tonelada de “espacios de hipótesis” / “modelos” / algoritmos que puede aprender: admite máquinas de vectores, núcleos, redes neuronales, modelos bayesianos, etc. luego cada uno tiene su propio espacio de parámetros y variaciones con las que lidiar. luego, está su medida de rendimiento, por ejemplo, precisión. Por lo general, hay un objetivo que desea alcanzar. ¿Y si no lo haces? Entonces, ¿qué? Entonces, hay más conceptos con los que tienes que lidiar: ¿estás a) subadaptado? entonces quizás deberías probar más parámetros o un espacio de hipótesis con una dimensión VC más alta; o eres b) sobreajuste? tal vez deberías probar un espacio de hipótesis con una dimensión VC más baja o probar un método de regularización diferente …

… y es una jungla allá afuera …

TLDR: en mi opinión, el aprendizaje supervisado es más difícil ya que se está ejecutando después de una cantidad / medida de cuán bueno es su trabajo, por ejemplo, la precisión, por lo que debe saber cómo mejorar lo que está haciendo frente al aprendizaje no supervisado donde una vez que ejecuta su algo, se puede terminar, y nadie puede decirte lo contrario …

Sin supervisión por un tiro largo.

Realmente no hay una “verdad al norte” a seguir, aquí y mucho “arte” se combina con la ciencia.