Data Engineer (m/f/d)

BASF

Festanstellung

Datenbankentwicklung/BI, Datenanalyse, Entwicklung, Wartung und Instandhaltung

Bachelor, Master

Nächstmöglicher Zeitpunkt

Deutsch

Madrid, Spanien, Essen



JOIN THE TEAM

Die Analytics & AI Implementation Services Produktteam unterstützt interne Geschäftspartner bei ihren digitalen Projekten, damit diese operativ werden und Geschäftswerte daraus ziehen können. Du wirst als Data Engineer in einem projektbasierten Team arbeiten, das für das Design, den Aufbau und die Wartung von Datenpipelines und -systemen verantwortlich ist, die es der Organisation ermöglichen, Geschäftswerte aus ihren Daten zu ziehen.

RESPONSIBILITIES

  • Entwerfe skalierbare Datenpipelines für die optimale Datenextraktion, -transformation und -ladung aus einer Vielzahl von Datenquellen unter Verwendung von Big Data-Berechnungsframeworks und Azure PaaS-Komponenten.
  • Architektoniere und implementiere Datenschichten zur Entwicklung von zusammengesetzten KI-Systemen mit Mustern wie RAG.
  • Datenmodellierung und -architektur.
  • Sorge für Datenqualität und Konsistenz in den resultierenden Datenprodukten.
  • Entwickle und optimiere bestehende Prozesse und Abfragen, um Daten aus verschiedenen Quellen zu extrahieren, zu manipulieren und zu analysieren.
  • Biete technische Unterstützung und Anleitung für Geschäftspartner im Bereich Data Engineering.
  • Bleibe auf dem neuesten Stand der neuesten Trends und Best Practices im Bereich Data Engineering.

QUALIFICATIONS

  • Bachelor- oder Masterabschluss in Informatik, Informationssystemen oder einem verwandten Bereich.
  • 2-4 Jahre Erfahrung in Aufgaben des Data Engineering wie Datenmodellierung, Erstellung und Implementierung von Datenpipelines und ETL-Prozessen. Erfahrung mit Cloud-Computing-Plattformen wie AWS und Azure (bevorzugt) und Big Data-Architekturen.
  • Vertrautheit mit relationalen, objektorientierten, NoSQL-Datenbankverwaltungssystemen und dem Delta Lake-Speicherframework.
  • Kenntnisse in Python.
  • Erfahrung mit Apache Spark und Kafka, Databricks-Plattform.
  • Kenntnisse in Big Data/Big Compute-Architektur und -Technologien.
  • Erfahrung mit Microservices und Kenntnis von Softwareentwicklungspraktiken: Agile (Scrum, Kanban), Medallion-Architektur, CI/CD, DevOps, DataOps, IaC.

BENEFITS

  • Ein sicheres Arbeitsumfeld, da deine Gesundheit, Sicherheit und dein Wohlbefinden immer unsere oberste Priorität sind.
  • Flexible Arbeitszeiten und Home-Office-Optionen, damit du dein Arbeits- und Privatleben in Einklang bringen kannst.
  • Möglichkeiten zur Weiterbildung und Entwicklung.
  • 23 Urlaubstage pro Jahr.
  • 5 zusätzliche Tage (Anpassung).
  • 2 Kulturtage.
  • Ein kollaboratives, vertrauensvolles und innovatives Arbeitsumfeld.
  • Teil eines internationalen Teams sein und an globalen Projekten arbeiten.
  • Umzugsunterstützung nach Madrid wird angeboten.

Ähnliche Jobs