Datenanalyse, Entwicklung
Nächstmöglicher Zeitpunkt
Madrid, España, Estación de Chamartín, Madrid, Spanien
Bei BASF Digital Hub Madrid entwickeln wir innovative digitale Lösungen für BASF, schaffen neue spannende Kundenerlebnisse und Geschäftswachstum und steigern die Effizienz von Prozessen, um BASFs Position als digitalen Marktführer in der Chemiebranche zu stärken. Wir glauben, dass der richtige Weg über Kreativität, Ausprobieren und großartige Menschen führt, die gemeinsam arbeiten und lernen. Werde Teil unseres Teams und gestalte die Zukunft mit uns – in einem globalen Team, das Vielfalt und Chancengleichheit lebt.
Wir setzen uns für ein inklusives Arbeitsumfeld ein und ermutigen besonders Menschen mit Behinderungen zur Bewerbung. Wir schätzen Vielfalt und sind davon überzeugt, dass unterschiedliche Perspektiven die Effektivität unseres Teams steigern. Unsere Einstellungspraktiken sind darauf ausgelegt, allen Bewerbenden gleiche Chancen zu bieten.
Du wirst Teil des Teams der Digital Factory im Bereich Agricultural Solutions und arbeitest an spannenden Datenprojekten.
- Du hilfst beim Design und der Entwicklung skalierbarer, effizienter cloudbasierter Datenpipelines mit Databricks und Azure Data Factory.
- Du unterstützt die Integration von Echtzeit-Streaming-Lösungen mit Event Hubs und Kafka für Datenaufnahme und -verarbeitung.
- Du optimierst die Datenspeicherung und -transformation mit Azure Data Lake Storage Gen2 (ADLS Gen2).
- Du schreibst sauberen und effizienten Code in Python und PySpark zur Datenverarbeitung und -analyse.
- Du arbeitest mit funktionsübergreifenden Teams zusammen, um Datenanforderungen zu erfassen und Lösungen umzusetzen, die den Geschäftszielen entsprechen.
- Du überwachst und analysierst cloudbasierte Datenplattformen und -pipelines und trägst zur Leistungsverbesserung bei.
- Du stellst die Einhaltung von Datenqualitäts-, Governance- und Sicherheitsstandards sicher.
- Grundkenntnisse in Databricks und Azure Data Factory für den Aufbau von Datenpipelines und Workflows.
- Vertrautheit mit Event Hubs und Kafka für Echtzeitdaten-Streaming und Messaging.
- Verständnis von Azure Data Lake Storage Gen2 (ADLS Gen2) für Datenmanagement und Speicheroptimierung.
- Programmierkenntnisse in Python und PySpark für Data Engineering Aufgaben.
- Kenntnisse zu Best Practices bei Datenintegration, -transformation und -optimierung in Cloud-Umgebungen.
- Erfahrung oder Kurse im Bereich großskalige Datenverarbeitung und Echtzeit-Streaming-Architekturen sind von Vorteil.
- Vertrautheit mit Azure Cloud Services und verwandten Tools ist ein Plus.
- Starke analytische und problemlösende Fähigkeiten mit Fokus auf Performance und Skalierbarkeit.
- Relevante Kurse oder Zertifizierungen in Azure Data Engineering, Cloud-Plattformen oder verwandten Technologien.
- Erfahrung mit CI/CD-Pipelines für Cloud-Datenlösungen ist von Vorteil.
- Grundkenntnisse in Machine Learning und deren Integration in Datenpipelines (optional).
- Ein sicheres Arbeitsumfeld, denn deine Gesundheit, Sicherheit und dein Wohlbefinden haben höchste Priorität.
- Flexible Arbeitszeiten und Homeoffice-Möglichkeiten für eine gute Work-Life-Balance.
- Weiterbildungs- und Entwicklungsmöglichkeiten.
- 23 Urlaubstage pro Jahr.
- 5 zusätzliche Ausgleichstage.
- 2 Kulturtage.
- Ein kollaboratives, vertrauensvolles und innovatives Arbeitsumfeld.
- Arbeiten in einem internationalen Team und an globalen Projekten.
- Unterstützung bei der Umsiedlung nach Madrid.
Wir setzen uns für ein inklusives Arbeitsumfeld ein und ermutigen besonders Menschen mit Behinderungen zur Bewerbung. Wir schätzen Vielfalt und sind davon überzeugt, dass unterschiedliche Perspektiven die Effektivität unseres Teams steigern. Unsere Einstellungspraktiken sind darauf ausgelegt, allen Bewerbenden gleiche Chancen zu bieten.