En primer lugar, se espera que tenga una comprensión clara de varias herramientas en Hadoop Ecosystem y cómo funcionan entre sí para hacer frente a diferentes escenarios de Big Data. Las siguientes son algunas de las preguntas importantes de la entrevista de Hadoop:
P. ¿Qué sucede cuando dos clientes intentan acceder al mismo archivo en el HDFS?
HDFS solo admite escrituras exclusivas.
- ¿Cuál es la mejor manera de prepararse para una entrevista telefónica? ¿Tienes consejos / trucos?
- ¿Cuál es la posibilidad de ser rechazado de Accenture, incluso después de completar todas las rondas de entrevistas? Si es así, ¿por qué?
- ¿Cuáles son las preguntas más frecuentes y los temas cubiertos en la posición de pasante / a tiempo completo de ingeniero de datos?
- ¿Cuáles son las preguntas de la entrevista para HTML y CSS?
- ¿Crees que los entrevistadores contratarán a un candidato con experiencias laborales desafortunadas y difíciles sobre otros por compasión durante una entrevista de trabajo?
Cuando el primer cliente se pone en contacto con el “NameNode” para abrir el archivo para escribir, el “NameNode” otorga un contrato de arrendamiento al cliente para crear este archivo. Cuando el segundo cliente intenta abrir el mismo archivo para escribir, el “NameNode” notará que la concesión del archivo ya se ha otorgado a otro cliente y rechazará la solicitud de apertura para el segundo cliente.
P. ¿Podemos tener un factor de replicación diferente de los archivos existentes en HDFS?
Sí, uno puede tener un factor de replicación diferente para los archivos existentes en HDFS. Supongamos que tengo un archivo llamado test.xml almacenado dentro del directorio de muestra en mi HDFS con el factor de replicación establecido en 1. Ahora, el comando para cambiar el factor de replicación del archivo text.xml a 3 es:
hadoop fs -setrwp -w 3 /sample/test.xml
Finalmente, puedo verificar si el factor de replicación ha cambiado o no utilizando el siguiente comando:
hadoop fs -ls / sample
P. ¿Puedes modificar el archivo presente en HDFS?
No, no puedo modificar los archivos ya presentes en HDFS, ya que HDFS sigue el modelo Write Once Read Many. Pero, siempre puedo agregar datos al archivo HDFS existente.
P. ¿Qué es un combinador y dónde debe usarlo?
Combiner es como una función de mini reductor que nos permite realizar una agregación local de la salida del mapa antes de transferirla a la fase reductora. Básicamente, se utiliza para optimizar el uso del ancho de banda de la red durante una tarea de MapReduce al reducir la cantidad de datos que se transfieren desde un mapeador al reductor.
Te sugiero que leas este video sobre las preguntas de la entrevista de Hadoop, que fue tomado por un experto de la industria. Este video le dará una buena idea sobre qué tipo de preguntas se esperan en una entrevista de Hadoop y también lo ayudará a comprender cómo proceder con las mismas.
Además, también puede seguir adelante con los siguientes blogs que cubren preguntas sobre cada herramienta en Hadoop Ecosystem:
- Las 50 preguntas principales de la entrevista de Hadoop
- Preguntas de la entrevista de HDFS
- Preguntas de la entrevista de MapReduce
- Preguntas de la entrevista de la colmena
- Preguntas de la entrevista de cerdo
- Preguntas de la entrevista de HBase