See all the jobs at Xideral here:
| Xideral Canadá | Contract | Partially remote
, ,Titre d'emploi : Développeur logiciel senior – Ingénierie de données
Langue requise : Français
Heures de travail par semaine : 35 h
Type de poste : Hybride – Montréal (6 jours/mois en présentiel)
Durée de la mission en mois : 6 mois, renouvelable
Nous recherchons un développeur logiciel senior spécialisé en ingénierie de données pour un mandat stratégique au sein d’une grande organisation. Le rôle consiste principalement à migrer et transformer des données provenant de bases Oracle locales vers un lac de données dans le Cloud Azure, structuré en trois niveaux de raffinement (Bronze, Argent, Or).
Ces données serviront ensuite à la migration des rapports actuellement développés sous SAP BusinessObjects vers Power BI, où vous pourriez être amené à collaborer avec l’équipe pour bâtir de nouveaux rapports.
-
Diplôme universitaire (Baccalauréat minimum souhaité).
-
Minimum 10 ans d’expérience pertinente en ingénierie de données.
-
Solide maîtrise de Spark, PySpark, SQL, Delta Lake, Parquet.
-
Expertise en conception, implémentation et exploitation de bases de données relationnelles et non relationnelles (Oracle, SQL Server, PostgreSQL, MongoDB, Cosmos DB) et en principes ETL/ELT.
-
Compétences avancées en Python et en tests automatisés (ex. pytest).
-
Expérience avec les environnements Azure (Databricks, Data Factory, Synapse/SQL).
-
Bonne connaissance de Power BI.
-
Familiarité avec les pratiques DevOps/CI-CD (GitHub).
-
Expérience sur des projets concrets de migration de données vers le cloud.
-
Réussir la migration et la transformation des données locales vers Azure Data Lake.
-
Garantir la qualité, la performance et la sécurité des données à travers les différents niveaux (Bronze, Argent, Or).
-
Contribuer à la migration et au développement de nouveaux rapports dans Power BI.
-
Mettre en place des pipelines robustes, testés et documentés.
-
Analyser et comprendre des schémas de données complexes et multi-sources.
-
Concevoir, modéliser et implémenter un Delta Lake.
-
Développer et optimiser des pipelines d’ingestion, de nettoyage, de validation et d’agrégation.
-
Écrire du SQL performant, lisible et testé, avec documentation complète.
-
Développer en Python des transformations réutilisables, intégrées en CI/CD.
-
Assurer la qualité et le monitoring des données en production.
-
Résoudre les incidents liés aux données et aux pipelines.
-
Connaissance des univers et rapports BusinessObjects (BO).