Hadoop
Wien
0 Stellenangebote gefunden.
Überprüfe die ausgewählten Filter oder versuche es mit anderen Suchkriterien.
Neue Hadoop Jobs in Wien per E-Mail erhalten.
Jobworld KG
In diesem Job administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, optimierst Datenpipelines und unterstützt Data Engineers bei der Auswahl passender Dienste.
In dieser Rolle administrierst und optimierst du die Big Data Umgebung auf Apache Hadoop und verwaltest Services wie Kafka und Flink, während du Data Engineers berätst und unser IaaC über Terraform implementierst.
Raiffeisen Informatik GmbH
In dieser Rolle entwickelst du skalierbare Datenpipelines zur Verarbeitung großer Datenmengen, baust Data Warehouses in MS SQL Server und AWS auf und integrierst Daten aus verschiedenen Quellen zu hochwertigen Datenprodukten.
In dieser Rolle analysierst du Daten aus verschiedenen Systemen, modellierst und implementierst skalierbare ELT/ETL-Prozesse und arbeitest im Big-Data-Umfeld mit Technologien wie Apache Hadoop und SQL.
In diesem Job administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, kümmerst dich um die Verwaltung von Kafka, Flink und weiteren Tools und berätst Data Engineers hinsichtlich optimaler Hadoop-Dienste.
Simon-Kucher & Partners
In dieser Rolle verarbeitest und strukturierst du komplexe Datensätze, um datengestützte Entscheidungen zu ermöglichen. Du automatisierst ETL-Prozesse und entwickelst aussagekräftige Datenvisualisierungen für Stakeholder.
paiqo GmbH
In dieser Position entwickelst du komplexe Datenverarbeitungspipelines, definierst moderne Datenarchitekturen und arbeitest mit Cloud-Technologien, insbesondere Microsoft Azure, um datengetriebene Lösungen für verschiedene Branchen zu liefern.
In dieser Rolle administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, optimierst Systeme, verwaltest Kafka und Flink und berätst Data Engineers zu geeigneten Hadoop-Diensten.
In dieser Rolle administrierst du unser Big Data-Umfeld auf Apache Hadoop, optimierst Datenströme mit Kafka und Flink und beraten unsere Data Engineers bei der Auswahl geeigneter Services.
In dieser Rolle administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, verwaltest Kafka, Flink und andere Services und optimierst Workloads durch Beratung und Troubleshooting.
Computer Futures
In dieser Position entwirfst du robuste Datenpipelines und entwickelst skalierbare ETL-Lösungen, um die Datenqualität zu verbessern und fundierte Entscheidungen in einem dynamischen Umfeld zu unterstützen.
In diesem Job entwickelst du robuste Datenpipelines und ETL-Lösungen, um datenbasierte Entscheidungen zu unterstützen, während du eng mit Data Scientists und Stakeholdern zusammenarbeitest.
EUROPEAN DYNAMICS
Designs and develops Snowflake and Azure Data Factory data pipelines that extract data from various sources, transform it into the desired format, and load it into the appropriate data storage systems. Integrates data from different sources, including...
Interacting with the customer and understanding his business needs and processes. Use case reflection together with the customer to find the best use case to apply Data Science / Machine Learning. Analyzing and understanding the provided data and...
Analyze and prepare data: from the pre-systems for further processing. Model and map scalable ELT/ETL flows: Batch processing Streaming Interface role: between Data Analysts and Data Scientists to streamline data usage. Enrich data and load into big...