كلما زادت طلبات التقديم التي ترسلينها، زادت فرصك في الحصول على وظيفة!
إليك لمحة عن معدل نشاط الباحثات عن عمل خلال الشهر الماضي:
عدد الفرص التي تم تصفحها
عدد الطلبات التي تم تقديمها
استمري في التصفح والتقديم لزيادة فرصك في الحصول على وظيفة!
هل تبحثين عن جهات توظيف لها سجل مثبت في دعم وتمكين النساء؟
اضغطي هنا لاكتشاف الفرص المتاحة الآن!ندعوكِ للمشاركة في استطلاع مصمّم لمساعدة الباحثين على فهم أفضل الطرق لربط الباحثات عن عمل بالوظائف التي يبحثن عنها.
هل ترغبين في المشاركة؟
في حال تم اختياركِ، سنتواصل معكِ عبر البريد الإلكتروني لتزويدكِ بالتفاصيل والتعليمات الخاصة بالمشاركة.
ستحصلين على مبلغ 7 دولارات مقابل إجابتك على الاستطلاع.
We are seeking an experienced Cloudera Data Engineer with strong hands-on expertise in Cloudera CDP, Hadoop, Spark, Hive, and HDFS. The ideal candidate will be responsible for building and maintaining big data pipelines, optimizing data workflows, and supporting production environments to ensure reliability and performance.
Design, build, and maintain big data pipelines using Cloudera CDP components.
Develop and optimize ETL/ELT workflows using Spark, Hive, and Hadoop ecosystems.
Manage and maintain HDFS storage, ensuring high availability and performance.
Perform production support activities, including issue resolution, monitoring, and performance tuning.
Work with data scientists, analysts, and other engineering teams to support data-driven initiatives.
Ensure data governance, security, and compliance across big data environments.
Troubleshoot cluster-level issues related to resource utilization, scheduling, and configuration.
Participate in solution design, architecture discussions, and technical documentation.
Strong hands-on experience with Cloudera CDP.
Proficiency in Hadoop ecosystem: HDFS, YARN, MapReduce, Hive, Impala.
Strong experience working with Apache Spark (PySpark or Scala preferred).
Solid understanding of distributed systems and big data architecture.
Experience with production support and troubleshooting in big data environments.
Strong SQL skills and experience optimizing large-scale queries.
Familiarity with Linux, shell scripting, and automation tools.
Experience with version control (Git) and CI/CD workflows is a plus.
Bachelor's degree in Computer Science or any other related field
Experience with cloud platforms (AWS, Azure, GCP) for big data workloads.
Exposure to Kafka, NiFi, Oozie, or similar data orchestration tools.
Knowledge of Docker, Kubernetes, or containerized environments.
Understanding of security, encryption, and data governance concepts.
لن يتم النظر في طلبك لهذة الوظيفة، وسيتم إزالته من البريد الوارد الخاص بصاحب العمل.