Debe preparar los siguientes aspectos:
- Preguntas conceptuales: sus fundamentos deben ser muy sólidos.
- Preguntas prácticas: debe ser capaz de resolver los problemas durante la entrevista (el entrevistador puede pedir desarrollar una lógica / código)
- Preguntas del proyecto: debe tener un conocimiento profundo de todos los componentes utilizados en los proyectos junto con el flujo de datos y la arquitectura
Si está listo con estos puntos, puede descifrar cualquier entrevista.
Aparte de esto, comprenda todas las funciones y responsabilidades de un desarrollador de Hadoop: la respuesta de Shwati Kumar a ¿Qué tipo de trabajo típico hace un desarrollador de Hadoop?
- ¿Cómo se realizará una entrevista JATF y cómo debo prepararme para ella?
- ¿Qué preguntas se harán en las entrevistas de trabajo de banca / seguros?
- ¿Qué preguntas le hacemos al entrevistador?
- No hay consejeros asignados a mi área y el MIT ha renunciado a mi entrevista, ¿puedo hacer algo al respecto? Puedo viajar para una entrevista.
- ¿Por qué algunas preguntas son inexplicables?
A continuación se muestra una lista gigantesca de preguntas de la entrevista, que será bastante útil:
1) ¿Qué es Hadoop?
Ver respuesta >>
2) ¿Qué es Hadoop Distributed File System-HDFS?
Ver respuesta >>
3) ¿Qué es NameNode y DataNode en HDFS?
Ver respuesta >>
4) ¿Cómo NameNode aborda las fallas de Datanode en HDFS?
Ver respuesta >>
5) ¿Qué quieres decir con metadatos en Hadoop?
Ver respuesta >>
6) ¿En qué ubicación NameNode almacena sus metadatos? ¿Y por qué?
Ver respuesta >>
7) ¿Cuántos metadatos se crearán en NameNode en Hadoop?
Ver respuesta >>
8) ¿Cuándo NameNode ingresa en modo seguro?
Ver respuesta >>
9) ¿Cómo reiniciar NameNode o todos los demonios en Hadoop HDFS?
Ver respuesta >>
10) ¿Cuáles son los modos en que se ejecuta Apache Hadoop?
Ver respuesta >>
11) ¿Sobre qué base el nodo de nombre distribuye bloques entre los nodos de datos en HDFS?
Ver respuesta >>
12) ¿Qué es un bloque en HDFS? ¿Por qué un tamaño de bloque de 64 MB?
Ver respuesta >>
13) ¿Por qué el tamaño de bloque es grande en Hadoop?
Ver respuesta >>
14) ¿Qué es la tolerancia a fallas en Hadoop HDFS?
Ver respuesta >>
15) ¿Por qué el tamaño de bloque está configurado en 128 MB en HDFS?
Ver respuesta >>
16) ¿Qué sucede si el bloque en Hadoop HDFS está dañado?
Ver respuesta >>
17) ¿Cuál es la diferencia entre NameNode y DataNode en Hadoop?
Ver respuesta >>
18) ¿Cómo se leen los datos o el archivo en Hadoop HDFS?
Ver respuesta >>
19) ¿Cómo se escriben los datos o el archivo en Hadoop HDFS?
Ver respuesta >>
20) Idealmente, ¿cuál debería ser el tamaño del bloque en Hadoop?
Ver respuesta >>
21) ¿Qué es Heartbeat en Hadoop?
Ver respuesta >>
22) ¿Con qué frecuencia DataNode envía latidos a NameNode en Hadoop?
Ver respuesta >>
23) Al iniciar los servicios de Hadoop, ¿el servicio DataNode no se está ejecutando?
Ver respuesta >>
24) ¿Cómo HDFS ayuda a NameNode a escalar en Hadoop?
Ver respuesta >>
25) ¿Qué es el NameNode secundario en Hadoop HDFS?
Ver respuesta >>
26) Idealmente, ¿cuál debería ser el factor de replicación en Hadoop?
Ver respuesta >>
27) Cómo se puede cambiar el factor de replicación cuando los datos ya están almacenados en HDFS
Ver respuesta >>
28) ¿Por qué HDFS realiza la replicación, aunque resulta en redundancia de datos en Hadoop?
Ver respuesta >>
29) ¿Qué es Safemode en Apache Hadoop?
Ver respuesta >>
30) ¿Qué sucede cuando namenode entra en modo seguro en hadoop?
Ver respuesta >>
31) ¿Cómo eliminar el modo seguro de namenode con fuerza en HDFS?
Ver respuesta >>
32) ¿Cómo crear el directorio cuando el nodo Nombre está en modo seguro?
Ver respuesta >>
33) ¿Por qué no podemos crear el directorio / usuario / dataflair / inpdata001 cuando el nodo Nombre está en modo seguro?
Ver respuesta >>
34) ¿Cuál es la diferencia entre un MapReduce InputSplit y un bloque HDFS?
Ver respuesta >>
35) Explicar el problema de archivo pequeño en Hadoop
Ver respuesta >>
36) ¿Cuál es la diferencia entre HDFS y NAS?
Ver respuesta >>
37) ¿Cómo crear usuarios en hadoop HDFS?
Ver respuesta >>
38) ¿Qué sucede cuando NameNode baja durante la operación de lectura de archivos en Hadoop?
Ver respuesta >>
39) Explique el patrón HDFS “Escribir una vez Leer muchos”
Ver respuesta >>
39) ¿Pueden varios clientes escribir en un archivo HDFS simultáneamente en hadoop?
Ver respuesta >>
40) ¿HDFS permite que un cliente lea un archivo que ya está abierto para escribir en hadoop?
Ver respuesta >>
41) ¿Cuál debería ser el tamaño del bloque HDFS para obtener el máximo rendimiento del clúster Hadoop?
Ver respuesta >>
42) ¿Por qué HDFS almacena datos utilizando hardware básico a pesar de la mayor probabilidad de fallas en hadoop?
Ver respuesta >>
43) ¿Quién divide el archivo en Bloque mientras almacena dentro de hdfs en hadoop?
Ver respuesta >>
44) ¿Qué es el NameNode activo y pasivo en HDFS?
Ver respuesta >>
45) ¿Cómo se realiza la indexación en hadoop HDFS?
Ver respuesta >>
46) ¿Qué es la conciencia de rack en Hadoop?
Ver respuesta >>
47) ¿Qué es la codificación de borrado en Hadoop?
Ver respuesta >>
48) ¿Cuándo y cómo crear un archivo hadoop?
Ver respuesta >>
49) ¿Qué no se usa dfs en la consola web HDFS?
Ver respuesta >>
50) ¿Cómo garantiza HDFS la integridad de los datos de los bloques de datos almacenados en Hadoop HDFS?
Ver respuesta >>
51) ¿Por qué los esclavos están limitados a 4000 en Hadoop Version1?
Ver respuesta >>
52) ¿Cuál es la necesidad de MapReduce?
Ver respuesta >>
53) ¿Qué es Mapper en Hadoop MapReduce?
Ver respuesta >>
54) En MapReduce, idealmente, ¿cuántos mapeadores deberían configurarse en un esclavo?
Ver respuesta >>
55) ¿Cómo establecer el número de mapeadores que se crearán en MapReduce?
Ver respuesta >>
56) ¿Dónde está escrito el resultado de Mapper en Hadoop?
Ver respuesta >>
57) ¿Cómo cambiar una cantidad de mapeadores que se ejecutan en un esclavo en MapReduce?
Ver respuesta >>
58) ¿Cómo comprimir la salida del mapeador en Hadoop?
Ver respuesta >>
59) ¿Cómo configurar Hadoop para reutilizar JVM para los mapeadores?
Ver respuesta >>
60) ¿Por qué Mapper se ejecuta en un proceso pesado y no en un hilo en MapReduce?
Ver respuesta >>
61) ¿Qué es el reductor en MapReduce?
Ver respuesta >>
62) ¿Cuántos números de reductores se ejecutan en Map-Reduce Job?
Ver respuesta >>
63) ¿Podemos establecer el número de reductores en cero en MapReduce?
Ver respuesta >>
64) ¿Qué sucede si el número del reductor es 0 en MapReduce?
Ver respuesta >>
65) ¿Cuál es el par clave-valor en Hadoop MapReduce?
Ver respuesta >>
66) ¿Qué es InputFormat en Hadoop MapReduce?
Ver respuesta >>
67) ¿Cuáles son los distintos InputFormats en Hadoop?
Ver respuesta >>
68) ¿Explicar InputSplit en Hadoop MapReduce?
Ver respuesta >>
69) ¿Cuánto espacio ocupará la división en Mapreduce?
Ver respuesta >>
70) ¿Qué es un RecordReader en Hadoop MapReduce?
Ver respuesta >>
71) ¿Cuál es la diferencia entre el bloque HDFS y la división de entrada?
Ver respuesta >>
72) ¿Cómo escribir los programas MapReduce?
Ver respuesta >>
73) ¿Qué es KeyValueTextInputFormat en Hadoop MapReduce?
Ver respuesta >>
74) ¿Dónde se realiza la clasificación en Hadoop MapReduce Job?
Ver respuesta >>
75) ¿Qué es Combiner en MapReduce?
Ver respuesta >>
76) En MapReduce Data Flow, cuando se llama a Combiner?
Ver respuesta >>
77) ¿Cómo configurar el número del Combinador en MapReduce?
Ver respuesta >>
78) ¿Se pueden cambiar o no varios combinadores en MapReduce?
Ver respuesta >>
79) ¿Cuántas veces se llama al combinador en un nodo del mapeador en Hadoop?
Ver respuesta >>
80) ¿Diferenciar reductor y combinador en Hadoop MapReduce?
Ver respuesta >>
81) ¿Dónde se realiza la clasificación en el nodo mapeador o el nodo reductor en MapReduce?
Ver respuesta >>
82) ¿Cómo ordenar la salida intermedia en función de los valores en MapReduce?
Ver respuesta >>
83) ¿Qué algoritmo de clasificación se usa en Hadoop MapReduce?
Ver respuesta >>
84) ¿Cuál es la secuencia de ejecución de mapa, reducir, lector de registros, división, combinador, particionador?
Ver respuesta >>
85) Si la salida del mapeador o la salida del particionador escrito en el disco local?
Ver respuesta >>
86) ¿Partitioner se ejecuta en su propia JVM o comparte con otro proceso?
Ver respuesta >>
87) ¿Cuál es la secuencia de ejecución de Mapper, Combiner y Partitioner en MapReduce?
Ver respuesta >>
88) ¿Qué es un caché distribuido en Hadoop?
Ver respuesta >>
89) ¿Cuál es el problema con el archivo pequeño en Hadoop?
Ver respuesta >>
90) ¿Por qué no se puede hacer la agregación en Mapper en MapReduce?
Ver respuesta >>
91) ¿Es posible el trabajo de solo reducción en Hadoop MapReduce?
Ver respuesta >>
92) ¿Qué es el formato de salida en MapReduce?
Ver respuesta >>
93) ¿Qué es LazyOutputFormat en MapReduce?
Ver respuesta >>
94) ¿Cómo especificar más de un directorio como entrada en el programa Hadoop MapReduce?
Ver respuesta >>
95) ¿Por qué el nombre del archivo de salida en Hadoop MapReduce part-r-00000?
Ver respuesta >>
96) ¿Cómo cambiar el nombre del archivo de salida de part-r-00000 en Hadoop MapReduce?
Ver respuesta >>
97) ¿Cómo obtener el archivo único como salida del trabajo MapReduce?
Ver respuesta >>
98) ¿Cómo sobrescribir un archivo / directorio de salida existente durante la ejecución de trabajos de Hadoop MapReduce?
Ver respuesta >>
99) ¿Cómo optimizar el trabajo de Hadoop MapReduce?
Ver respuesta >>
100) ¿Qué es una ejecución especulativa en Apache Hadoop MapReduce?
Ver respuesta >>
101) ¿Qué es la localidad de datos en Hadoop?
Ver respuesta >>
102) ¿Cuál es la diferencia entre Job y Task en MapReduce?
Ver respuesta >>
103) ¿Explicar la ranura en Hadoop Map-Reduce v1?
Ver respuesta >>
104) ¿Cuáles son los problemas asociados con el mapa y reducir el mecanismo basado en ranuras en mapReduce?
Ver respuesta >>
105) ¿Cómo enviar archivos adicionales (frascos, archivos estáticos) para el trabajo de Hadoop MapReduce durante el tiempo de ejecución?
Ver respuesta >>
106) ¿Cuáles son el mapeador y reductor de identidad en MapReduce?
Ver respuesta >>
107) ¿Explicar el proceso de derrame en Hadoop MapReduce?
Ver respuesta >>
108) ¿Qué es Counter en MapReduce?
Ver respuesta >>
109) ¿Cómo crear una clave personalizada y un valor personalizado en MapReduce Job?
Ver respuesta >>
110) ¿En qué tipo de escenarios los trabajos de MapReduce serán más útiles que PIG en Hadoop?
Ver respuesta >>
Espero que estas preguntas ayuden. Todo lo mejor para la entrevista, siéntase libre de comentar si tiene alguna pregunta.
Dispuesto a aprender las últimas tecnologías de vanguardia, Sígueme:
Shwati Kumar