Apache Flink
1 Stellenangebot gefunden.
Dynatrace GmbH
In dieser Rolle entwickelst du KI-gestützte Lösungen für digitales Erlebnismonitoring, indem du Algorithmen designst, Datenanalysen durchführst und prototypische Features zur Nutzeranalyse umsetzt.
Neue Apache Flink Job in Österreich per E-Mail erhalten.
In dieser Rolle entwickelst du AI-gestützte Lösungen für die Überwachung digitaler Erlebnisse, indem du Algorithmen für große Datenmengen entwirfst und Prototypen von Nutzererkenntnissen mit LLMs und Generative AI erstellst.
Jobworld KG
In dieser Position verwaltest du unsere Big Data-Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, optimierst den Betrieb und berätst Kollegen bei der Auswahl geeigneter Dienste für Geschäftsanforderungen.
In dieser Position entwickelst du skalierbare Algorithmen und Verarbeitungspipelines für große Datenmengen, um KI-Funktionen im Bereich Digital Experience Monitoring zu optimieren und Benutzerinsights zu generieren.
In diesem Job administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, optimierst Datenpipelines und unterstützt Data Engineers bei der Auswahl passender Dienste.
In dieser Rolle administrierst und optimierst du die Big Data Umgebung auf Apache Hadoop und verwaltest Services wie Kafka und Flink, während du Data Engineers berätst und unser IaaC über Terraform implementierst.
In dieser Position entwickelst du skalierbare KI-Lösungen für das Digital Experience Monitoring, indem du Datenpipelines für Telemetriedaten aufbaust, Algorithmen designst und Insights aus Nutzerverhalten ableitest.
In dieser Position administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop, optimierst Services wie Kafka und Flink, führst Fehleranalysen durch und berätst das Team bei der Nutzung von Hadoop-Diensten.
In dieser Rolle analysierst du Daten aus verschiedenen Systemen, modellierst und implementierst skalierbare ELT/ETL-Prozesse und arbeitest im Big-Data-Umfeld mit Technologien wie Apache Hadoop und SQL.
In diesem Job administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, kümmerst dich um die Verwaltung von Kafka, Flink und weiteren Tools und berätst Data Engineers hinsichtlich optimaler Hadoop-Dienste.
Finmatics GmbH
In dieser Rolle entwickelst du die Dateninfrastruktur und erstellst ETL/ELT-Pipelines, um Produktdaten, Transaktionsdaten und CRM-Insights in einer Analyseumgebung zu integrieren und kontinuierlich zu optimieren.
In dieser Rolle administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, optimierst Systeme, verwaltest Kafka und Flink und berätst Data Engineers zu geeigneten Hadoop-Diensten.
In dieser Rolle administrierst du unser Big Data-Umfeld auf Apache Hadoop, optimierst Datenströme mit Kafka und Flink und beraten unsere Data Engineers bei der Auswahl geeigneter Services.
In dieser Rolle administrierst du unsere Big Data Umgebung auf Basis von Apache Hadoop in der AWS-Cloud, verwaltest Kafka, Flink und andere Services und optimierst Workloads durch Beratung und Troubleshooting.
Aeroficial Intelligence GmbH
Gestalte, entwickle und pflege skalierbare Datenpipelines für Echtzeit- und Batchverarbeitung Überwache, behebe Probleme und verbessere die Performance unserer Dateninfrastruktur Arbeite eng mit unserem Backend-Team zusammen und bring dich ein, damit...