كلما زادت طلبات التقديم التي ترسلينها، زادت فرصك في الحصول على وظيفة!
إليك لمحة عن معدل نشاط الباحثات عن عمل خلال الشهر الماضي:
عدد الفرص التي تم تصفحها
عدد الطلبات التي تم تقديمها
استمري في التصفح والتقديم لزيادة فرصك في الحصول على وظيفة!
هل تبحثين عن جهات توظيف لها سجل مثبت في دعم وتمكين النساء؟
اضغطي هنا لاكتشاف الفرص المتاحة الآن!ندعوكِ للمشاركة في استطلاع مصمّم لمساعدة الباحثين على فهم أفضل الطرق لربط الباحثات عن عمل بالوظائف التي يبحثن عنها.
هل ترغبين في المشاركة؟
في حال تم اختياركِ، سنتواصل معكِ عبر البريد الإلكتروني لتزويدكِ بالتفاصيل والتعليمات الخاصة بالمشاركة.
ستحصلين على مبلغ 7 دولارات مقابل إجابتك على الاستطلاع.
Key Responsibilities
− CI/CD Pipeline Development:
Design and maintain CI/CD pipelines for data workflows and machine learning jobs using tools like Azure DevOps, Jenkins, or GitHub Actions. For Databricks, implement automated deployment of notebooks, jobs, and Delta Live Tables, ensuring version control and environment consistency.
− Pipeline Monitoring & Reliability:
Implement monitoring solutions for data pipelines and Databricks jobs, track latency, throughput, and failures. Configure auto-scaling clusters and recovery strategies to guarantee high availability and resilience.
− Secrets & Environment Management:
Securely manage credentials, API keys, and Databricks Secret Scopes across development, staging, and production environments. Apply best practices for role-based access control (RBAC) and compliance.
− Deployment Automation:
Automate deployment of data infrastructure, Databricks clusters, and ML models using Infrastructure-as-Code (Terraform) and orchestration tools. Ensure reproducibility and reduce manual intervention.
− Observability & Alerting:
Set up end-to-end observability for pipelines using Databricks monitoring dashboards, integrate with Prometheus, Grafana, or cloud-native tools, and configure proactive alerting for SLA breaches and anomalies.
− Collaboration & Documentation:
Work closely with Data Engineers, AI Engineers, and Platform teams to ensure smooth integration. Document Databricks workflows, cluster configurations, and CI/CD processes for transparency and operational excellence.
Preferred Qualifications
Experience: 9+ years
− Databricks Expertise:
Hands-on experience with Databricks Workflows, Delta Lake, Unity Catalog, and MLflow for model tracking and deployment.
− Programming Skills:
Proficiency in Python (PySpark) and SQL for data processing and transformation. Ability to optimize queries for large-scale analytics.
− Database Knowledge:
Familiarity with Oracle, MySQL, PostgreSQL, and integration with Databricks for ingestion and analytics.
− Orchestration Tools:
Experience with Airflow, Prefect, Dagster, or Databricks Workflows for scheduling and monitoring complex pipelines.
− Data Transformation & Modeling:
Understanding of data modeling principles, Delta Lake architecture, and performance tuning for big data environments.
− CI/CD Tools:
Proficiency in Azure DevOps, GitHub Actions, Jenkins, and integration with Databricks for automated deployments.
− Infrastructure-as-Code:
Experience with Terraform or CloudFormation for provisioning Databricks resources and managing cloud infrastructure.
− Cloud Platforms:
Strong knowledge of AWS and Databricks, including S3 integration, IAM roles, and secure data access patterns.
More information about NXP in India...
لن يتم النظر في طلبك لهذة الوظيفة، وسيتم إزالته من البريد الوارد الخاص بصاحب العمل.