¿Qué tan difícil es para un ingeniero mecánico aprender big data (Hadoop)? Soy un poco débil en matemáticas, pero nunca he fallado en ninguna asignatura de matemáticas en ingeniería.

Una vez que ingresa a TI, su dominio académico no importa mucho. Lo que importa es tu esfuerzo que pones en aprender cosas nuevas.
Pruébalo, definitivamente tendrás éxito.

Hadoop está escrito en Java. Además, para trabajar en proyectos de Hadoop debe tener algún conocimiento en Java.

Entonces puede proceder de la siguiente manera:
Completa este curso:
Aprenda Java: Tutorial gratuito de programación Java para principiantes
Esto lo ayudará a comprender y codificar rápidamente.
Luego consulte estos tutoriales:
ESS 100 – Introducción a Big Data
ESS 101 – Apache Hadoop Essentials
DEV 301 – Desarrollo de aplicaciones Hadoop
DA 450 – Apache Pig Essentials
DA 440 – Elementos esenciales de la colmena Apache
DEV 350 – MapR Streams Essentials
DEV 351 – Desarrollo de aplicaciones MapR Streams
DEV 360 – Apache Spark Essentials
DEV 361: compilar y supervisar aplicaciones de Apache Spark
DEV 362 – Crear canalizaciones de datos usando Apache Spark
DEV 320 – Arquitectura y modelo de datos Apache HBase
DEV 325 – Diseño del esquema Apache HBase

Siga los tutoriales en la secuencia que he escrito.
No te apresures a completarlos. Tome su tiempo.
Estos son más que suficientes para comenzar y obtener un conocimiento considerable.
Después de eso, puede seguir estos (si está interesado):
ADM 200 – Instalar un clúster MapR
ADM 201 – Configurar un cluster MapR

También puede realizar exámenes de certificación después de completar estos tutoriales.
Pero yo recomendaría no hacerlo desde MapR.
En su lugar, revise algunos videos de YouTube y practique durante al menos 3–4 meses.
Mientras practica, consulte la documentación respectiva para obtener información más profunda.
Después de eso, intente el examen de certificación de:
1. Certificación de desarrollador de CCA Spark y Hadoop – Cloudera
o
2. Certificación HDPCD – Hortonworks

¡Buena suerte!

Hola,

Te doy mi apertura. Piensa en ello lógicamente.

La mayor parte del centro de capacitación ofrece hadoop durante 30-50 horas. ¿Es hadoop un tema tan pequeño para aprender en solo 50 horas?

La mayoría de los capacitadores afirman trabajar en una empresa multinacional de renombre y promete enseñarle tanto a usted como a su desarrollador. ¿Hay alguna multinacional en el mundo donde un solo individuo tenga experiencia tanto de administrador como de desarrollo?

Prometen cubrir casi más de 10 temas. ¿Podemos aprender cada tema en solo 3 horas?

Dicen que Java no es obligatorio. Todo el hadoop y sus componentes están escritos en Java. ¿Cómo entiende la programación Map-reduce, Pig, Hive UDFs, HBase Clients, todos escritos en Java?

Certificado de finalización del curso. ¿Conseguirás un trabajo cuando digas que aprendí hadoop del centro de capacitación XYZ?

Muy buenos PPT, pero ¿eso cubre todos los detalles?

Si crees que la pregunta anterior es válida, entonces tengo algo mejor para ti.

Hice un currículum de hadoop de 6 meses que contiene completamente manos y lo convertirá en un verdadero experto con mucha práctica.

Puede consultar mis videos gratuitos en la siguiente URL y probarlo.

Hay más de 30 horas de videos disponibles incluso antes de inscribirse con nosotros.

Puede contactarme si está satisfecho con mis sesiones. Encontrarás mi número de contacto en mis videos.

Sesiones de Java de núcleo absolutamente gratis – YouTube

Tutorial de Hadoop – YouTube

Serie Hadoop 2: YouTube

Por favor suscríbase a mi página de Facebook para más actualizaciones.

Centro de aprendizaje de Hadoop

Aunque están relacionados, Big Data y Hadoop no son lo mismo.

Big Data se refiere a grandes volúmenes de datos que son demasiado grandes para ser procesados ​​en un sentido tradicional del software.

Hadoop es una base, en la que se pueden ejecutar varios conjuntos de herramientas y software para asimilar grandes volúmenes de datos estructurados y no estructurados para obtener información.

Hay varios roles en juego:

  1. Administrador de infraestructura de Hadoop que instala y configura softwares, transmisiones, etc.
  2. Hive, Pig y Map reducen el programador, aquí puede escribir programas personalizados para usar datos de proceso y producir conjuntos de información agregados.
  3. Científicos de datos, estas son las personas que realmente necesitan matemáticas, estadísticas para producir la información que es útil para el negocio.

Hay muchos roles en los que no necesitas una capacidad matemática extraordinaria.

Será tan difícil como lo será para un informático promedio.

Además, requiere más pensamiento lógico aquí en comparación con el pensamiento matemático central.

Te aconsejo que sigas adelante, ya que estarás perfectamente bien. Es una gran tecnología para trabajar.