NiFi
0 Stellenangebote gefunden.
Überprüfe die ausgewählten Filter oder versuche es mit anderen Suchkriterien.
Neue NiFi Jobs in Österreich per E-Mail erhalten.
Jobworld KG
In dieser Position verwaltest du unsere Big Data-Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, optimierst den Betrieb und berätst Kollegen bei der Auswahl geeigneter Dienste für Geschäftsanforderungen.
Greentube Internet Entertainment Solutions GmbH
In dieser Rolle entwickelst du Echtzeit-Datenpipelines mit Cloudera-Tools wie Kafka und Spark. Du optimierst sowie automatisierst Abläufe und dokumentierst deine Arbeiten, während du Pipelines nach Databricks migrierst.
In diesem Job administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, optimierst Datenpipelines und unterstützt Data Engineers bei der Auswahl passender Dienste.
In dieser Rolle administrierst und optimierst du die Big Data Umgebung auf Apache Hadoop und verwaltest Services wie Kafka und Flink, während du Data Engineers berätst und unser IaaC über Terraform implementierst.
In dieser Position administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop, optimierst Services wie Kafka und Flink, führst Fehleranalysen durch und berätst das Team bei der Nutzung von Hadoop-Diensten.
In dieser Rolle analysierst du Daten aus verschiedenen Systemen, modellierst und implementierst skalierbare ELT/ETL-Prozesse und arbeitest im Big-Data-Umfeld mit Technologien wie Apache Hadoop und SQL.
In diesem Job administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, kümmerst dich um die Verwaltung von Kafka, Flink und weiteren Tools und berätst Data Engineers hinsichtlich optimaler Hadoop-Dienste.
In dieser Rolle administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, optimierst Systeme, verwaltest Kafka und Flink und berätst Data Engineers zu geeigneten Hadoop-Diensten.
In dieser Position entwickelst du Echtzeit-Datenpipelines mit NiFi, Kafka und Spark, optimierst Abläufe, dokumentierst Prozesse und kooperierst bei der Migration von Pipelines zu Databricks.
In dieser Rolle entwirfst und implementierst du skalierbare Echtzeit- und Batch-Datenpipelines mit Databricks auf Azure, während du mit verschiedenen Teams zusammenarbeitest und kontinuierliche Verbesserungen vorantreibst.
In dieser Rolle administrierst du unser Big Data-Umfeld auf Apache Hadoop, optimierst Datenströme mit Kafka und Flink und beraten unsere Data Engineers bei der Auswahl geeigneter Services.
In dieser Rolle administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, verwaltest Kafka, Flink und andere Services und optimierst Workloads durch Beratung und Troubleshooting.
In dieser Position entwickelst du robuste und skalierbare Streaming- sowie Batch-Datenpipelines mit Databricks auf Azure und Cloudera, arbeitest eng mit verschiedenen Teams und trägst zur Weiterentwicklung der Infrastruktur bei.