Disponibilité : ASAP

Type de contrat : CDI

Présentation de la société :

Créée  en décembre 2011, KLANIK a bâti son succès sur son approche Consultant Centric
récompensée par de nombreux prix, nous définissant ainsi comme une entreprise où il fait bon
travailler. Ce modèle se matérialise par des programmes inédits de développement personnel et
professionnel :

  • Act’In Klanik : catalogue de rôles et responsabilités au sein de la société
  • Knowledge Center : université interne de formations
  • Korner : incubateur de start-ups

Aujourd’hui KLANIK renforce son positionnement technologique autour de 4 pôles d’expertise

  • Software
  • DevOps & Cloud
  • Big Data & IA
  • Cybersécurité

Ces pôles sont structurés en communautés de pratiques, au sein desquelles nos collaborateurs
bénéficient à la fois d’un parcours professionnel renforcé et d’une intelligence collective à laquelle ils
participent activement.

En tant que société de conseil, avec un positionnement global et des expertises ciblées, nous
intervenons sur des projets de grande envergure soutenant la transformation digitale d’acteurs
majeurs nationaux et internationaux.

Rejoindre KLANIK c’est participer à un projet commun avec plus de 300 personnalités atypiques
autour des valeurs de Partage, de Bienveillance et d’Exigence.

Nous recrutons actuellement 200 talents pour collaborer avec nos équipes. Retrouvez-nous en France
à Marseille, Montpellier, Sophia-Antipolis, Paris, Lyon et Lille ; mais aussi à Bruxelles, Monaco,
Montréal et Houston.

Descriptif du poste :

Notre client dans la province du Hainaut recherche un Data Engineer !

Contexte de la mission:

Un développeur est recherché afin de rejoindre la nouvelle Data Factory. Il participera au premier projet d’utilisation de la plateforme data Azure (projet de reporting relatif aux smart meters).

Missions :

• Contribuer à la modélisation de type « Vault » ;

• Établir le Design technique, à partir d’une modélisation de type Vault, en vue de l’implémentation via Azure SQL Database ;

• Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ;

• Développer les flux d’import (outil Change Data Capture [CDC] à définir / Data Factory) ;

• Développer les flux de transformation de données via Microsoft « Azure Data Factory » ;

• Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ;

• Établir le plan de tests unitaires (automatisables) de la solution ;

• Suivre/exécuter les tests unitaires ;

• Rédiger la documentation technique ;

• Contribuer à l’amélioration continue (Guidelines de développement).

Profil :

Critères techniques requis :

-Connaissances (théoriques) en modélisation UML

-Expérience en modélisation dimensionnelle (Star Schema)

-Expérience probante d’utilisation des langages SQL & TSQL

-Expérience probante/effective de l’outil Analysis Services et/ou SSAS

-Expérience probante/effective de l’outil Microsoft Power BI

-Expérience probante/effective des outils Azure DevOps & Git

-Expérience probante/effective en langage DAX

-Maîtrise de l’environnement Azure

-Maîtrise de l’outil (Azure) SQL Database

-Maîtrise de l’outil Visual Studio (Database Project)

-Niveau d’Anglais : B2

-Niveau de Français : C2

 

Critères « nice to have »  :

-Connaissance d’au moins un des langages suivants : Python, C#

-Expérience pratique en modélisation Data Vault 2.0

-Maîtrise de l’outil Azure Data Factory

-Maîtrise de l’outil Azure Data Lake

-Certification Azure Data Engineer (DP-203: Data Engineering on Microsoft Azure)

-Certification Azure Fundamentals (AZ-900: Microsoft Azure Fundamentals)

-Maîtrise de l’outil Apache Spark dans Azure Synapse

Ce poste est ouvert, à compétences égales, aux personnes en situation de handicap.

Référence de l'annonce : MCO - Data Engineer