Niveau d’expérience : 5-8 ans

Disponibilité : ASAP

Type de contrat : CDI

Présentation de la société :

Créée en décembre 2011, KLANIK a bâti son succès sur son approche Consultant Centric
récompensée par de nombreux prix, nous définissant ainsi comme une entreprise où il fait bon
travailler. Ce modèle se matérialise par des programmes inédits de développement personnel et
professionnel :

  • Act’In Klanik : catalogue de rôles et responsabilités au sein de la société
  • Knowledge Center : université interne de formations
  • Korner : incubateur de start-ups

Aujourd’hui KLANIK renforce son positionnement technologique autour de 4 pôles d’expertise

  • Software
  • DevOps & Cloud
  • Big Data & IA
  • Cybersécurité

Ces pôles sont structurés en communautés de pratiques, au sein desquelles nos collaborateurs
bénéficient à la fois d’un parcours professionnel renforcé et d’une intelligence collective à laquelle ils
participent activement.

En tant que société de conseil, avec un positionnement global et des expertises ciblées, nous
intervenons sur des projets de grande envergure soutenant la transformation digitale d’acteurs
majeurs nationaux et internationaux.

Rejoindre KLANIK c’est participer à un projet commun avec plus de 300 personnalités atypiques
autour des valeurs de Partage, de Bienveillance et d’Exigence.

Nous recrutons actuellement 200 talents pour collaborer avec nos équipes. Retrouvez-nous en France
à Marseille, Montpellier, Sophia-Antipolis, Paris, Lyon et Lille ; mais aussi à Bruxelles, Monaco,
Montréal et Houston.

Descriptif du poste :

Vous intervenez pour l’un de nos clients, au sein d’une équipe tournée vers la digitalisation des métiers de la maintenance du Groupe.

Vous êtes en charge de la conception, du développement et de l’entretien des systèmes et outils de collecte, de stockage, de nettoyage, d’organisation et de mise à disposition des données. Votre mission consiste à travailler avec des données brutes et à les raffiner pour optimiser les processus d’analyse.

Vous proposez aussi des recommandations pour améliorer la qualité et la fiabilité des données. Soucieux de l’industrialisation de vos solutions d’analyse, celles-ci passent à l’échelle et sont capables de traiter de larges volumes de données dans des environnements Big Data.

Vos tâches sont les suivantes :

• Concevoir, développer et intégrer des batchs de traitement de données avec Spark et Spark-streaming, ainsi que Apache Kafka

• Concevoir des solutions techniques basées sur ElasticSearch

• Concevoir et développer des solutions pour les équipes de data science

Profil :

Vous disposez au minimum de 4 ans d’expérience professionnelle au cours de laquelle vous avez développé des compétences en Big Data, technologies Kafka, Spark, ElasticSearch et écosystème Cloudera.

Vous êtes capable de choisir les technologies adéquates en fonction du besoin, et de maitriser l’architecture complète de la solution. Vous êtes capable de mettre en place des chaines complètes d’intégration et de transformation de la donnée que ce soit par batch ou par streaming.

Vous comprenez finement le fonctionnement d’un cluster Hadoop, Kafka ou Elastic et savez le maintenir dans un environnement de production.

Ce poste est ouvert, à compétences égales, aux personnes en situation de handicap.

Référence de l'annonce : ingenieurbigdata_ave_212