Senior Databricks Engineer Amsterdam | €130.000 | Brownfield project | Migreer & bouw Big-data-platformen ter facilitering van de Energietransitie of de zorg | Databricks, DBT, Spark, DLT, MLflow, CI/CD, IaC

  • Hoe zou je het vinden om te werken voor organisaties als Eneco, Stedin, DHL of Antoni van Leeuwenhoek, vandebron, waarbij je jouw specialisatie in Databricks kan uitoefenen?
  • Wil jij werken aan grootschalige migraties richting Databricks, waarin je organisaties helpt de brug te bouwen van hun oude data platform, naar een nieuw state-of-the-art Big data platform?
  • Ben je er klaar mee dat je “in de min” kan gaan wanneer je tijdelijk geen passende opdracht hebt, en dat dit van je hard verdiende bonus af gaat, en alle verantwoordelijkheid toch uiteindelijk bij jou ligt?
  • Wil jij werken binnen een frisse scale-up, waarbij je projectmatig tussen de €110.000 en €130.000 op jaarbasis verdiend en daarnaast de mogelijkheid hebben om met de organisatie mee te groeien?

Jouw werkgever: Big-Data boutique helpt bedrijven met maatschappelijk core-business met innoveren

Frisse scale-up groeit gestaag met zeer gespecialiseerde big-data specialisten. Het doel waar zij naar streven: met elkaar financiële vrijheid realiseren terwijl het echte engineering hart blijft kloppen. Het keyword kan omschreven worden als T-shaped. Hier krijg je kansen om te werken met engineers met specialisaties binnen: MLOps, Analytics Engineering, Kubernetes en natuurlijk net zoals jij: Databricks.

De 3 eigenaren, van deze toonaangevende boutique, hebben jaren lang ervaring binnen het Data & AI domein. Ze zijn ook Early adopters van de Everything in Code mindset, waarbij er sterke focus is op het bouwen van kwalitatieve data en analytics producten. Hierdoor word aan deze boutique gevraagd om complexe projecten op te lossen, volledig geautomatiseerd met CI/CD en op mooie schaal!

Werk je hier, dat betekent events, cruisen door Amsterdam, samen naar conferenties over Data en AI en mag je hier de laatste trends rondom Big data engineering volgen. Dit doe je samen met je team, waarvan de gemiddelde leeftijd rond de 33 ligt. Daarbij kom je in een sterke Community terecht waarbij Kennisdeling centraal staat.

Bij hen staat jouw werkgeluk centraal en heb je daadwerkelijk de ruimte om alleen interessante projecten te mogen doen. Jij hoeft alleen te focussen op dat wat jij interessant vindt: state of the art oplossingen bouwen, de administratie + Engineering projecten faciliteren zij. Daarnaast is het jonge club, met goed gevulde zakken, maar zonder corporate fratsen waardoor je veel flexibiliteit geniet.

Rol: Senior Databricks Engineer Amsterdam

In deze uitdagende rol van Senior Databricks Engineer Amsterdam, krijg je de kans om geheel nieuwbouw te werken aan grootschalige Databricks oplossingen. Alles in Code. Hier werken betekent dat jij je mag vastbijten in het schaalbaar uitrollen van nieuwe data platformen, maar ook volop kansen krijgt om de Solutions te bedenken en vervolgens end-to-end met je eigen team te bouwen.

Denk aan het neerzetten van Real time data pipelines met Delta tables, het bedenken en bouwen van Lakehouse architecture, het opzetten van auto-scaling clusters & CI/CD. Maar ook het implementeren & bouwen van LakeFlow /DLT oplossingen.

R&D & FinOps zijn hier belangrijke onderwerpen. Als Senior Databricks engineer Amsterdam help je organisaties met de geautomatiseerde provisioning van de infrastructuur met Terraform, het schaalbaar opzetten van CI/CD data pipelines en heb je hier veel vrijheid om PoC’s op te zetten. Maar ook, het uitfaseren van Snowflake, of oude Data warehouses.

Voorbeeld project:

Hierbij kan gedacht worden aan complexe Data platform Migratie van on-premise richting Databricks, SAP HANA migraties richting Azure (uitfasering). Het uitgangspunt is ten alle tijden om top-200 bedrijven echt te helpen met de transformatie naar de public cloud, of zeer grote optimalisatie slagen te maken in de cloud (VerPaaSen). Maar denk bijvoorbeeld ook aan projecten waarbij je DBT de nieuwe standaard maakt, Airflow implemeteert, het unity catalog inricht (en design maakt) en Lakehouse Architectuur uitdenken + opzetten. Echt projecten end-to-end.

Verder krijg je te maken met implementaties van DBT voor data transformatie en schrijf je spark code (of optimaliseren & checken dat het clean is). Dit allen met natuurlijk het oog op een kosten-geoptimaliseerd dataplatform waarbij data-governance een belangrijke rol speelt. Deze platformen zijn echt Big Big data en verwerken soms wel petabytes aan data. Over Impact gesproken!

Wat neem je mee?

  • 5+ jaren werkervaring als Software, Data of platform engineer;
  • 2+ jaren ervaring met het opzetten van Databricks
  • Sterke kennis van Apache Spark (PySpark)
  • Goede kennis van CI/CD tooling als Azure DevOps, Github Actions of Gitlab
  • Goede kennis van Docker (Kubernetes = Pluspunt)
  • Sterke kennis van IaC tooling (Terraform = PluspunGedegen kennis van het bouwen van Data Pipelines, ETL;
  • Kennis van DBT is een groot pluspunt;
  • Certificeringen als: Databricks fundamentals, of Platform Architect DP-203, AWS Solutions Architect, Hashicorp Terraform Associate = groot pluspunt

Voorwaarden

  • Een salaris tussen €110.000 en €130.000
  • Mogelijkheid tot shortlease
  • 25 vakantiedagen + 15 dagen in goed overleg
  • Mogelijkheid om naar op kosten van de zaak naar het Databricks AI summit te gaan
  • 3 tot 4 thuiswerkdagen per week
  • Pensioensregeling

Wil jij interessant werk binnen databricks, goed verdienen en dat met een gezonde dosis work-life balance? reageer dan op deze email of stuur een appje naar +31 6 27141688.

PS: je mag ook meteen even een meeting meeting inplannen: https://calendly.com/dion-talentscalers/korte-kennismaking

Foto van Dion Zwinkels

Dion Zwinkels

Stuur ons een bericht!