Senior Cloud Data Engineer | Ingénieur·e senior en données Cloud
Top Benefits
About the role
About the Role
We are hiring a Senior Cloud Data Engineer to lead the development of our cloud infrastructure that powers AI/ML product pipelines — from data ingestion and orchestration to model deployment and secure application delivery.
This is a deeply hands-on engineering role, responsible for designing, coding, and maintaining scalable, secure, multi-tenant data environments across AWS and Azure. You will play a central role in building infrastructure to support AI/ML use cases such as demand forecasting, predictive analytics, and real-time decision-making.
This is a hands-on, engineering-heavy role ideal for someone who thrives in high-responsibility environments, demonstrates sharp problem-solving skills, and takes initiative to independently deliver robust solutions from end to end.
Key Responsibilities
Cloud Data Engineering & Architecture
- Architect and build scalable, secure, multi-tenant cloud data pipelines in AWS and Azure
- Implement robust ETL/ELT pipelines and APIs to move and access data across Oracle, AWS, and Snowflake — including ERP-to-cloud, cloud-to-ERP, and intra-cloud flows
- Leverage AWS services (Glue, Lambda, S3, RDS, EventBridge), AWS Batch, Azure components, and orchestration tools like Airflow and Kedro to build resilient and maintainable pipelines; Enforce modularity and reusability.
- Automate infrastructure provisioning using Terraform / OpenTofu; manage CI/CD pipelines with Jenkins, GitHub Actions, or ArgoCD.
AI/ML Infrastructure & MLOps
- Build infrastructure to support AI/ML workflows (e.g. training, validation, versioning)
- Integrate with experiment tracking tools (e.g. MLflow) and model lifecycle pipelines
- Enable scalable model deployment in secure environments (containerized or cloud-native)
- Support full ML Ops lifecycle: data prep, parameter tuning, model deployment, and monitoring, in close collaboration with AI/ML scientists.
Secure Application Deployment
- Deploy and manage React or Python-based ML applications with secure user access
- Ensure private networking, MFA, RBAC, and encryption best practices in Azure and AWS
- Create CI/CD pipelines (e.g., Jenkins, GitHub Actions) integrated with Docker/Kubernetes
Automation & DevSecOps
- Design end-to-end automation for data movement, transformation, and model execution
- Integrate automated testing, scanning, and rollback strategies into CI/CD pipelines
- Maintain monitoring and logging with Prometheus, CloudWatch, or similar tools
Cross-Platform & Multi-Cloud Strategy
- Build portable components deployable across AWS and Azure
- Support integration of services like AWS Batch, AWS Glue, S3, Lambda, EventBridge, etc
ERP and Retail Context
- Work with ERP-based datasets (Oracle), including complex relational structures
- Understand the unique needs of AI applications in retail and supply chain analytics
Qualifications
Education & Experience
- Master’s degree in Data Science, Computer Science, or Software Engineering
- 5+ years of real-world experience in cloud data engineering, infrastructure, and deployment roles
- Prior professional experience with AI/ML pipelines or applications is strongly preferred
Tech Stack & Tools (Must-Have Experience)
- AWS (S3, Lambda, Glue, RDS, IAM, EventBridge), AWS Batch, Azure
- Snowflake, Oracle, SQL
- Python, PySpark, Docker, Kubernetes, Terraform
- Airflow, MLflow (for tracking), Git, CI/CD pipelines
Traits We Value
- Self-driven, independent, and resourceful — able to own solutions from idea to production
- High attention to detail and a deep respect for secure, responsible data handling
- Collaborative mindset to work with data scientists, product managers, and architects
- Excellent written and verbal communication
Additional Information
- Remote Work Model: Hybrid; 2 days per week in the Montreal office
We thank all applicants for their interest; only those shortlisted will be contacted.
Join us to help build the cloud foundations of our AI-powered future!
--------------------
À propos du poste
Nous recrutons un·e Senior Cloud Data Engineer pour piloter le développement de notre infrastructure cloud, support des pipelines produits IA/ML — de l’ingestion et l’orchestration des données au déploiement des modèles et à la livraison sécurisée des applications.
Ce rôle très opérationnel consiste à concevoir, coder et maintenir des environnements de données scalables, sécurisés et multi‑locataires sur AWS et Azure. Vous jouerez un rôle central dans la création d’infrastructures pour prendre en charge des cas d’usage IA/ML tels que la prévision de la demande, l’analytique prédictive et la prise de décisions en temps réel.
Ce poste, à forte dimension technique et autonome, est idéal pour une personne qui s’épanouit dans des environnements à haute responsabilité, fait preuve d’un excellent sens du problème et prend l’initiative pour livrer de bout en bout des solutions robustes.
Responsabilités clés
Ingénierie & architecture des données cloud
- Concevoir et bâtir des pipelines de données cloud scalables, sécurisés et multi‑locataires sur AWS et Azure.
- Implémenter des pipelines ETL/ELT et des API robustes pour déplacer et accéder aux données entre Oracle, AWS et Snowflake (ERP→cloud, cloud→ERP, intra‑cloud).
- Exploiter les services AWS (Glue, Lambda, S3, RDS, EventBridge), AWS Batch, composants Azure et outils d’orchestration (Airflow, Kedro) pour garantir résilience et maintenabilité, en privilégiant modularité et réutilisabilité.
- Automatiser le provisionnement d’infrastructure avec Terraform/OpenTofu ; gérer les pipelines CI/CD via Jenkins, GitHub Actions ou ArgoCD.
Infrastructure IA/ML & MLOps
- Mettre en place l’infrastructure pour les workflows IA/ML (entraînement, validation, gestion des versions).
- Intégrer des outils de suivi d’expérimentation (MLflow) et orchestrer les pipelines de cycle de vie des modèles.
- Permettre le déploiement scalable des modèles dans des environnements sécurisés (conteneurs ou cloud natif).
- Couvrir le cycle MLOps complet : préparation des données, ajustement des paramètres, déploiement des modèles et surveillance, en collaboration étroite avec les data scientists.
Déploiement d’applications sécurisé
- Déployer et gérer des applications ML basées sur React ou Python avec accès utilisateur sécurisé.
- Mettre en œuvre réseau privé, MFA, RBAC et chiffrement selon les meilleures pratiques Azure et AWS.
- Créer des pipelines CI/CD (Jenkins, GitHub Actions) intégrés avec Docker/Kubernetes.
Automatisation & DevSecOps
- Concevoir l’automatisation de bout en bout pour le déplacement, la transformation des données et l’exécution des modèles.
- Intégrer tests automatisés, scans de sécurité et stratégies de rollback dans les pipelines CI/CD.
- Maintenir la surveillance et la journalisation avec Prometheus, CloudWatch ou outils similaires.
Stratégie multi‑cloud & cross‑platform
- Développer des composants portables déployables sur AWS et Azure.
- Supporter l’intégration de services tels que AWS Batch, Glue, S3, Lambda, EventBridge, etc.
Contexte ERP & retail
- Travailler avec des jeux de données ERP (Oracle), y compris des structures relationnelles complexes.
- Comprendre les besoins spécifiques des applications IA en analytique retail et supply chain.
Qualifications
Formation & expérience
- Master en Data Science, Informatique ou Génie logiciel.
- 5+ ans d’expérience en ingénierie des données cloud, infrastructure et déploiement.
- Expérience professionnelle antérieure avec des pipelines ou applications IA/ML fortement recommandée.
Stack & outils (expérience requise)
- AWS (S3, Lambda, Glue, RDS, IAM, EventBridge), AWS Batch, Azure
- Snowflake, Oracle, SQL
- Python, PySpark, Docker, Kubernetes, Terraform
- Airflow, MLflow (pour le tracking), Git, pipelines CI/CD
Qualités recherchées
- Autonomie, débrouillardise et capacité à piloter des solutions de l’idée à la production.
- Grande rigueur et respect des bonnes pratiques de sécurisation des données.
- Esprit collaboratif avec data scientists, product managers et architectes.
- Excellente communication écrite et orale.
Informations complémentaires
- Mode hybride : 2 jours/semaine au bureau de Montréal
- Nous remercions toutes les personnes intéressées ; seules les personnes retenues seront contactées.
Rejoignez‑nous pour construire les fondations cloud de notre avenir IA !
About Jesta I.S.
Trusted by global brands and retail businesses specializing in apparel, footwear and hard goods for over 50 years, Jesta I.S. is a pioneer in the development of end-to-end enterprise ERP suites for emerging brands aspiring to scale and established brands migrating to the cloud on a limited budget.
Jesta’s Vision Retail Management Suite is comprised of Merchandising ERP and Omni Store. The suite bridges gaps and ignites collaboration between head office, warehouse, store and e-commerce teams.
Jesta’s Vision Supply Chain Management Suite for wholesalers and brand manufacturers delivers high levels of visibility and connectivity to optimize your product journeys from concept to consumer.
Leveraging a Master Data foundation, both suites provide IT stability and equip all departments with data-driven executable modules for operational excellence.
…
Reconnu par des marques mondiales et des entreprises de vente au détail spécialisées dans les vêtements, les chaussures et les biens durables depuis plus de 50 ans, Jesta I.S. est un pionnier dans le développement de suites ERP d'entreprise de bout en bout pour les marques émergentes aspirant à se développer et les marques établies migrant vers le cloud avec un budget limité.
La suite Vision Retail Management de Jesta comprend Merchandising ERP et Omni Store. La suite comble les lacunes et stimule la collaboration entre les équipes du siège social, de l'entrepôt, du magasin et du commerce électronique.
La suite Vision Supply Chain Management de Jesta pour les grossistes et les fabricants de marques offre des niveaux élevés de visibilité et de connectivité pour optimiser vos parcours de produits du concept au consommateur.
S'appuyant sur une base de données de base, les deux suites assurent la stabilité informatique et équipent tous les services de modules exécutables pilotés par les données pour une excellence opérationnelle.
Senior Cloud Data Engineer | Ingénieur·e senior en données Cloud
Top Benefits
About the role
About the Role
We are hiring a Senior Cloud Data Engineer to lead the development of our cloud infrastructure that powers AI/ML product pipelines — from data ingestion and orchestration to model deployment and secure application delivery.
This is a deeply hands-on engineering role, responsible for designing, coding, and maintaining scalable, secure, multi-tenant data environments across AWS and Azure. You will play a central role in building infrastructure to support AI/ML use cases such as demand forecasting, predictive analytics, and real-time decision-making.
This is a hands-on, engineering-heavy role ideal for someone who thrives in high-responsibility environments, demonstrates sharp problem-solving skills, and takes initiative to independently deliver robust solutions from end to end.
Key Responsibilities
Cloud Data Engineering & Architecture
- Architect and build scalable, secure, multi-tenant cloud data pipelines in AWS and Azure
- Implement robust ETL/ELT pipelines and APIs to move and access data across Oracle, AWS, and Snowflake — including ERP-to-cloud, cloud-to-ERP, and intra-cloud flows
- Leverage AWS services (Glue, Lambda, S3, RDS, EventBridge), AWS Batch, Azure components, and orchestration tools like Airflow and Kedro to build resilient and maintainable pipelines; Enforce modularity and reusability.
- Automate infrastructure provisioning using Terraform / OpenTofu; manage CI/CD pipelines with Jenkins, GitHub Actions, or ArgoCD.
AI/ML Infrastructure & MLOps
- Build infrastructure to support AI/ML workflows (e.g. training, validation, versioning)
- Integrate with experiment tracking tools (e.g. MLflow) and model lifecycle pipelines
- Enable scalable model deployment in secure environments (containerized or cloud-native)
- Support full ML Ops lifecycle: data prep, parameter tuning, model deployment, and monitoring, in close collaboration with AI/ML scientists.
Secure Application Deployment
- Deploy and manage React or Python-based ML applications with secure user access
- Ensure private networking, MFA, RBAC, and encryption best practices in Azure and AWS
- Create CI/CD pipelines (e.g., Jenkins, GitHub Actions) integrated with Docker/Kubernetes
Automation & DevSecOps
- Design end-to-end automation for data movement, transformation, and model execution
- Integrate automated testing, scanning, and rollback strategies into CI/CD pipelines
- Maintain monitoring and logging with Prometheus, CloudWatch, or similar tools
Cross-Platform & Multi-Cloud Strategy
- Build portable components deployable across AWS and Azure
- Support integration of services like AWS Batch, AWS Glue, S3, Lambda, EventBridge, etc
ERP and Retail Context
- Work with ERP-based datasets (Oracle), including complex relational structures
- Understand the unique needs of AI applications in retail and supply chain analytics
Qualifications
Education & Experience
- Master’s degree in Data Science, Computer Science, or Software Engineering
- 5+ years of real-world experience in cloud data engineering, infrastructure, and deployment roles
- Prior professional experience with AI/ML pipelines or applications is strongly preferred
Tech Stack & Tools (Must-Have Experience)
- AWS (S3, Lambda, Glue, RDS, IAM, EventBridge), AWS Batch, Azure
- Snowflake, Oracle, SQL
- Python, PySpark, Docker, Kubernetes, Terraform
- Airflow, MLflow (for tracking), Git, CI/CD pipelines
Traits We Value
- Self-driven, independent, and resourceful — able to own solutions from idea to production
- High attention to detail and a deep respect for secure, responsible data handling
- Collaborative mindset to work with data scientists, product managers, and architects
- Excellent written and verbal communication
Additional Information
- Remote Work Model: Hybrid; 2 days per week in the Montreal office
We thank all applicants for their interest; only those shortlisted will be contacted.
Join us to help build the cloud foundations of our AI-powered future!
--------------------
À propos du poste
Nous recrutons un·e Senior Cloud Data Engineer pour piloter le développement de notre infrastructure cloud, support des pipelines produits IA/ML — de l’ingestion et l’orchestration des données au déploiement des modèles et à la livraison sécurisée des applications.
Ce rôle très opérationnel consiste à concevoir, coder et maintenir des environnements de données scalables, sécurisés et multi‑locataires sur AWS et Azure. Vous jouerez un rôle central dans la création d’infrastructures pour prendre en charge des cas d’usage IA/ML tels que la prévision de la demande, l’analytique prédictive et la prise de décisions en temps réel.
Ce poste, à forte dimension technique et autonome, est idéal pour une personne qui s’épanouit dans des environnements à haute responsabilité, fait preuve d’un excellent sens du problème et prend l’initiative pour livrer de bout en bout des solutions robustes.
Responsabilités clés
Ingénierie & architecture des données cloud
- Concevoir et bâtir des pipelines de données cloud scalables, sécurisés et multi‑locataires sur AWS et Azure.
- Implémenter des pipelines ETL/ELT et des API robustes pour déplacer et accéder aux données entre Oracle, AWS et Snowflake (ERP→cloud, cloud→ERP, intra‑cloud).
- Exploiter les services AWS (Glue, Lambda, S3, RDS, EventBridge), AWS Batch, composants Azure et outils d’orchestration (Airflow, Kedro) pour garantir résilience et maintenabilité, en privilégiant modularité et réutilisabilité.
- Automatiser le provisionnement d’infrastructure avec Terraform/OpenTofu ; gérer les pipelines CI/CD via Jenkins, GitHub Actions ou ArgoCD.
Infrastructure IA/ML & MLOps
- Mettre en place l’infrastructure pour les workflows IA/ML (entraînement, validation, gestion des versions).
- Intégrer des outils de suivi d’expérimentation (MLflow) et orchestrer les pipelines de cycle de vie des modèles.
- Permettre le déploiement scalable des modèles dans des environnements sécurisés (conteneurs ou cloud natif).
- Couvrir le cycle MLOps complet : préparation des données, ajustement des paramètres, déploiement des modèles et surveillance, en collaboration étroite avec les data scientists.
Déploiement d’applications sécurisé
- Déployer et gérer des applications ML basées sur React ou Python avec accès utilisateur sécurisé.
- Mettre en œuvre réseau privé, MFA, RBAC et chiffrement selon les meilleures pratiques Azure et AWS.
- Créer des pipelines CI/CD (Jenkins, GitHub Actions) intégrés avec Docker/Kubernetes.
Automatisation & DevSecOps
- Concevoir l’automatisation de bout en bout pour le déplacement, la transformation des données et l’exécution des modèles.
- Intégrer tests automatisés, scans de sécurité et stratégies de rollback dans les pipelines CI/CD.
- Maintenir la surveillance et la journalisation avec Prometheus, CloudWatch ou outils similaires.
Stratégie multi‑cloud & cross‑platform
- Développer des composants portables déployables sur AWS et Azure.
- Supporter l’intégration de services tels que AWS Batch, Glue, S3, Lambda, EventBridge, etc.
Contexte ERP & retail
- Travailler avec des jeux de données ERP (Oracle), y compris des structures relationnelles complexes.
- Comprendre les besoins spécifiques des applications IA en analytique retail et supply chain.
Qualifications
Formation & expérience
- Master en Data Science, Informatique ou Génie logiciel.
- 5+ ans d’expérience en ingénierie des données cloud, infrastructure et déploiement.
- Expérience professionnelle antérieure avec des pipelines ou applications IA/ML fortement recommandée.
Stack & outils (expérience requise)
- AWS (S3, Lambda, Glue, RDS, IAM, EventBridge), AWS Batch, Azure
- Snowflake, Oracle, SQL
- Python, PySpark, Docker, Kubernetes, Terraform
- Airflow, MLflow (pour le tracking), Git, pipelines CI/CD
Qualités recherchées
- Autonomie, débrouillardise et capacité à piloter des solutions de l’idée à la production.
- Grande rigueur et respect des bonnes pratiques de sécurisation des données.
- Esprit collaboratif avec data scientists, product managers et architectes.
- Excellente communication écrite et orale.
Informations complémentaires
- Mode hybride : 2 jours/semaine au bureau de Montréal
- Nous remercions toutes les personnes intéressées ; seules les personnes retenues seront contactées.
Rejoignez‑nous pour construire les fondations cloud de notre avenir IA !
About Jesta I.S.
Trusted by global brands and retail businesses specializing in apparel, footwear and hard goods for over 50 years, Jesta I.S. is a pioneer in the development of end-to-end enterprise ERP suites for emerging brands aspiring to scale and established brands migrating to the cloud on a limited budget.
Jesta’s Vision Retail Management Suite is comprised of Merchandising ERP and Omni Store. The suite bridges gaps and ignites collaboration between head office, warehouse, store and e-commerce teams.
Jesta’s Vision Supply Chain Management Suite for wholesalers and brand manufacturers delivers high levels of visibility and connectivity to optimize your product journeys from concept to consumer.
Leveraging a Master Data foundation, both suites provide IT stability and equip all departments with data-driven executable modules for operational excellence.
…
Reconnu par des marques mondiales et des entreprises de vente au détail spécialisées dans les vêtements, les chaussures et les biens durables depuis plus de 50 ans, Jesta I.S. est un pionnier dans le développement de suites ERP d'entreprise de bout en bout pour les marques émergentes aspirant à se développer et les marques établies migrant vers le cloud avec un budget limité.
La suite Vision Retail Management de Jesta comprend Merchandising ERP et Omni Store. La suite comble les lacunes et stimule la collaboration entre les équipes du siège social, de l'entrepôt, du magasin et du commerce électronique.
La suite Vision Supply Chain Management de Jesta pour les grossistes et les fabricants de marques offre des niveaux élevés de visibilité et de connectivité pour optimiser vos parcours de produits du concept au consommateur.
S'appuyant sur une base de données de base, les deux suites assurent la stabilité informatique et équipent tous les services de modules exécutables pilotés par les données pour une excellence opérationnelle.