Vacature omschrijving
Startdatum: 1 november 2025
Einddatum: 31 augustus 2026
Optie op verlenging: 2x 6 maanden
Sluitingsdatum: 7 oktober 2025
Functieomschrijving
Als Senior DevOps - DataOps Engineer versterk je het DSO Monitoring team en draag je bij aan de ontwikkeling en het beheer van monitoring- en rapportagefaciliteiten voor het DSO-LV. Je werkt met real time en historische data en gebruikt moderne monitoring- en EDW tools. Je ontwikkelt en beheert het AKS datacluster van het DSO, Azure DataBricks en PowerBI rapportages. Je bent verantwoordelijk voor het ontsluiten, opschonen en aggregeren van data uit de DSO-keten en ontwikkelt rapportages die strategische beleidsmakers ondersteunen in hun besluitvorming.
Belangrijkste taken en verantwoordelijkheden
- Technisch ondersteunen van de PO bij het ophalen van klantvragen en het uitwerken van specificaties in user stories;
- Ontsluiten van verdere ketencomponenten (databronnen) in samenwerking met ketenpartners;
- Uitbreiden en doorontwikkelen van EDW tooling, met name Azure Databricks, Airflow en Power BI;
- Opleveren van gewenste monitoring data, API's en rapportages aan stakeholders;
- Sparren over ontwerpkeuzes en toekomstbestendige oplossingen;
- Peer reviewing en borgen van kennis door documentatie en kennisdeling;
- Afstemmen met PO, integratiespecialisten en ketenpartners;
- Uitvoeren van beheer en onderhoud, inclusief lifecycle management en het verhelpen van bugs en verstoringen;
- Onderhouden en uitbreiden van geautomatiseerde testen met Gherkin/Behave.
Technische vaardigheden en tools
- Container- en orchestration technologieën zoals Docker en Kubernetes;
- Network tooling en concepten, waaronder API’s en authenticatie;
- EDW tooling zoals Blob Storage, Azure Databricks, Airflow en PowerBI;
- Programmeertalen en scripting: Python, Pyspark, SQL;
- Testautomatisering met Gherkin en Behave;
- CI/CD tooling, met name Git;
- Monitoring tools zoals BetterStack;
- Issue tracking met Jira.
Werkwijze
Je werkt binnen een Agile omgeving volgens het SAFe framework, in sprints van 2 weken en Program Increments van een kwartaal. De samenwerking met verschillende organisaties en ketenpartners is essentieel om de gewenste functionaliteit voor het Digitaal Stelsel Omgevingswet te realiseren.
Eisen:
- Let op: motiveer (kort) in het CV per knock-outcriterium hoe u hieraan voldoet.
- Minimaal HBO werk- en denkniveau
- Minimaal 4 jaar ervaring Container technologie en cloud concepten (Azure, Docker, Kubernetes)
- Minimaal 4 jaar ervaring Netwerk tooling en concepten
- Minimaal 4 jaar ervaring Monitoring tooling (bij voorkeur Prometheus en Grafana)
- Minimaal 4 jaar ervaring EDW tooling (Blob Storage, Azure Databricks, PowerBI)
- Minimaal 4 jaar ervaring Agile en Scrum
- Door de kandidaat zélf geschreven CV en motivatie
- Inzet van een ZZPér is voor deze opdracht niet mogelijk
Wensen:
- U geeft een beschrijving van uw ervaring met EDW tooling in het algemeen en specifiek met Azure Data Lake Storage, Databricks en PowerBI
- U geeft een beschrijving van uw ervaring met netwerk tooling en concepten, container technologie en cloud concepten
- U toont duidelijk aan op welke wijze de door u geleverde expertise en competenties binnen de geschetste situatie, bijdragen in de interdepartementale DSO keten. Beoordeling:
Competenties:
- Zelfstandigheid, en ervaring in zowel beheer- als vernieuwingstrajecten
- Actieve deelname in het Scrum Team
- Zelfstandig komen met verbetervoorstellen en overleg over de implementatie hiervan
- Gedegen kennis van de te gebruiken methoden en technieken
- Flexibele werkhouding
- Over eigen grenzen heen kijken en bereid zijn aanpalende werkzaamheden op te pakken
- Communicatief vaardig
- Duidelijke gerichtheid op samenwerking
CV-eisen
Maximaal 10 pagina’s A4, opgesteld in het Nederlands. De motivaties op de eisen en de antwoorden op de gunningscriteria dienen ook binnen dit aantal pagina’s te worden beantwoord.
Solliciteren