Deine Aufgaben:
- Umsetzung von Projekten im Data-Engineering- und Machine-Learning-Umfeld
- Konzeptionierung und Umsetzung von ETL Pipelines
- Sicherstellung der Bereitstellung von großen Datenmengen
- Automatisierung von Prozessen
- Einbringen von Inputs und neuen Ideen
- Weitzerentwicklung des Big-Data-Bereichs unter Einsatz von Snowflake, Kafka, AWS, Kubeflow und Machine Learning
- Ansprechpartnerfunktion für die Developer und enge Zusammenarbeit im agilen Umfeld