As a Databricks Data Engineer, you will design, build, and optimize data pipelines in Databricks, applying data engineering best practices and core Databricks features to deliver scalable and reliable data solutions for our clients at Deloitte.
Benefits
- Je deelt bij ons mee in de winst. Boven op een vast salaris.
- Altijd blijven groeien. Met ons development program.
- Vergoeding om je thuiswerkplek op een ergonomisch verantwoorde manier in te richten én een internetvergoeding.
- Parttime (32 uur) of fulltime (40 uur) werken.
What's in it for you?
- Naast een vast salaris, deel je bij ons mee in de winst;
- Een overwerkregeling waarmee je een vergoeding kunt krijgen voor overwerk;
- Mooie doorgroeimogelijkheden, afhankelijk van je ambities en performance;
- Een development program waardoor je je doorlopend blijft ontwikkelen;
- Flexibele werktijden en de mogelijkheid om vanuit huis te werken;
- 26 vakantiedagen per jaar bij een fulltime dienstverband en de mogelijkheid om per jaar 15 vakantiedagen bij te kopen;
- Een 32- of 40-urige werkweek;
- De mogelijkheid om één keer per jaar een maand onbetaald verlof op te nemen;
- De mogelijkheid om minimaal 2 maanden op sabbatical te gaan;
- Een goede mobiliteitsregeling: een leaseauto met tankpas voor Europa, of de Mobility+ optie, of een bruto cashoptie waarmee je zelf al je vervoer regelt, of een OV‑jaarabonnement;
- Een iPhone die je ook privé mag gebruiken;
- Een laptop met 4G‑verbinding;
- Een goede pensioenregeling;
- Mogelijkheid om deel te nemen aan de collectieve ziektekostenregeling;
- De mogelijkheid om te profiteren van fiscaal aantrekkelijke zaken, zoals bedrijfsfitness en een fietsplan.
Qualifications
- A technical Master’s degree, preferably in Data Science, Big Data, Econometrics, Physics, Mathematics, Computer Science, Artificial Intelligence, or a related field;
- At least 4 years of work experience in data engineering; consulting experience is a plus;
- Strong hands-on experience with Databricks and Apache Spark (PySpark and Spark SQL);
- Deep understanding of Delta Lake and medallion architecture;
- Proficiency in SQL and one or more data engineering related programming languages (Python, Scala, etc.);
- Relevant Databricks certifications (Data Engineer Associate/Professional, Spark Developer Associate, Data Analyst Associate);
- Excellent command of English and Dutch.
What impact will you make?
As a Databricks Data Engineer, you will be a trusted adviser to our clients, designing and building reliable ETL/ELT pipelines in Databricks. You will apply the medallion architecture and Delta Lake best practices, optimize clusters for performance and cost, and embed data quality to deliver reliable data products. You will work closely with cloud platform engineers to ensure data solutions are secure, scalable, and easy to operate.
How do you do this?
- Develop, optimize, and operate ETL/ELT pipelines in Databricks using PySpark, SparkSQL, and Scala;
- Run migration programmes to Databricks, including legacy ETL processes into scalable data pipelines;
- Build robust data pipelines on Databricks for real time and batch processing;
- Configure and manage Databricks clusters and jobs for cost and performance efficiency;
- Apply CI/CD to automate testing and deployment of notebooks, jobs, and pipelines;
- Drive adoption of Databricks Lakehouse architecture and data engineering practice across our clients.