Sí, tenemos un programa de pasantías. El anuncio de trabajo está aquí: Databricks – pasante de ingeniería de software
Nuestros pasantes son tratados por igual como empleados a tiempo completo. Entiendo que en este mercado competitivo, cada startup anuncia esto. Sin embargo, realmente respetamos y cumplimos esta promesa. Nuestros pasantes reciben proyectos influyentes que contribuimos a proyectos de código abierto como Apache Spark o aquellos que lanzamos a nuestros clientes utilizando Databricks Cloud.
Algunos de los proyectos en los que trabajaron nuestros pasantes son:
- ¿Cómo debe ser el CV ideal de un abogado corporativo?
- ¿Cómo puede un estudiante internacional en prácticas en la NASA?
- ¿Qué es mejor para una pasantía o capacitación de verano: BHEL o BSNL? Soy un estudiante de segundo año de ECE.
- ¿Cómo debo vestirme para una entrevista para una pasantía con una startup?
- ¿Dónde puedo solicitar pasantías como estudiante de pregrado de economía de primer año en India?
- Creación de una biblioteca de estadísticas para Spark : funcionalidades comunes como correlaciones, pruebas de hipótesis, muestreo estratificado y generación de datos aleatorios. Estos algoritmos son difíciles de implementar de manera correcta y eficiente en un entorno distribuido. Ahora son compatibles de fábrica para todos los usuarios de Spark. [Funcionalidad estadística en Spark 1.1]
- Mejoras de rendimiento de Spark SQL y banco de pruebas : un interno trabajó estrechamente con el desarrollador principal de Spark SQL en optimizaciones de rendimiento para Spark SQL. Muchas consultas son órdenes de magnitud más rápido debido a este trabajo. Parte del proyecto consistía en implementar la conversión de unión de transmisión automática en Spark SQL (también conocida como unión de mapa en Hive). IIRC, nuestro pasante tardó aproximadamente dos semanas en hacer esto, mientras que fue un proyecto de varios meses en el proyecto Hive. [Mejoras de rendimiento emocionantes en Horizon para Spark SQL]
- Soporte nativo de JSON en Spark SQL : JSON es uno de los formatos de datos más comunes utilizados hoy en día. Un interno mejoró sustancialmente el soporte de tipo de datos enriquecido en Spark SQL y creó una forma realmente nueva de interactuar con datos JSON. En la última versión de Spark SQL, los usuarios simplemente pueden apuntar Spark SQL a algunos archivos JSON, y Spark SQL inferirá automáticamente el esquema de esos archivos JSON y estarán disponibles para realizar consultas de inmediato. Atrás quedaron los días para esforzarse y descubrir el complicado esquema codificado en varios archivos JSON. [Guía de programación de Spark SQL]
El verano pasado (2014) tuvimos 7 pasantes, con una mezcla de pasantes universitarios y pasantes de doctorado que están más enfocados en la investigación. Todos vinieron de nuestra red de referencias y han trabajado en algunos proyectos serios antes de las pasantías. Por ejemplo, entre nuestros pasantes teníamos un confirmador de Apache Hive, un confirmador de Apache Spark y un confirmador del compilador Scala.
Para 2015, esperamos expandir nuestro programa de pasantías más allá de nuestras conexiones de primer grado, y también contratar pasantes para trabajar en frontend y UX.