Estar a ambos lados de la mesa; Aquí están mis pensamientos sobre la preparación para las preguntas de programación en una entrevista de ciencia de datos:
1. Debe comprender bien las API y los rastreadores; para extraer datos de sitios web o rastrear internet. (Estas preguntas pueden o no ser formuladas por todas las empresas).
2. Escribir consultas SQL. La dificultad dependerá de su nivel de experiencia.
- ¿Qué conocimiento debo poseer antes de solicitar un puesto de Ingeniero de Aprendizaje Automático y Científico de Datos?
- ¿Qué debe hacer después de convertirse en un científico de datos? ¿Cómo te desarrollas como profesional? ¿En qué dirección llevas tu carrera?
- Me encantan las matemáticas y el aprendizaje automático, pero las empresas esperan que sepa algunas cosas que no me apasionan, como Hadoop spark, etc. ¿Qué debo hacer?
- ¿Los mejores científicos de datos tienen una maestría en Estadística o CS?
- Como científico de datos, ¿cómo puede 'oler' un modelo demasiado ajustado?
3. Tengo un conjunto de datos conmigo en mi base de datos; extraiga los datos relevantes y realice una regresión de cresta en el mismo. (Intente hacerlo automático; o como una tubería).
Y se harían preguntas que incluyen métodos de escritura para implementar varios algoritmos de ciencia de datos y técnicas estadísticas.
Y ahora; acerca de prepararse para ellos:
1. Tener un buen conocimiento de bases de datos y consultas. He encontrado este sitio (http://datamonkey.pro/) muy útil para una introducción rápida a SQL.
2. Asegúrese de poder codificar sus algoritmos de ciencia de datos favoritos en su lenguaje de programación favorito; y puede jugar con datos en él.
3. Aprenda qué es la escalabilidad. después de haber demostrado su valía con sus habilidades algorítmicas; las empresas tienden a pedirle que haga que la tubería sea más escalable.
4. Asegúrese de hacer proyectos similares a Kaggle durante su tiempo libre. Recorren un largo camino en tu entrevista; y me agradecerás por informar.
Por Kaggle-like; Me refiero a un proyecto en el que has identificado un enunciado del problema (ya sea loco o muy serio); y busca datos en la web. Es posible que tenga suerte y se encuentre con algunos datos de código abierto listos para abandonar; pero en la mayoría de los casos; tienes que sacarlo de la web.
Y ahí es donde aprendes a escribir rastreadores y raspadores. Luego viene la limpieza de datos; La fase que consume más tiempo.
Y entonces; se sumerge en el análisis estadístico y aplica algoritmos de ML en los datos y adorna, creando hermosas visualizaciones e informes.
Entonces, estos proyectos son un paquete completo en sí mismos.
Espero haber respondido la pregunta. Cualquier duda adicional puede entrar en los comentarios; Me encantaría ayudar