Généré automatiquement par Postule AI à partir de l’offre.
À propos de Capgemini
Capgemini est un leader mondial, responsable et multiculturel, regroupant 325 000 personnes dans plus de 50 pays. Partenaire stratégique des entreprises pour la transformation de leurs activités en tirant profit de toute la puissance de la technologie, le Groupe est guidé au quotidien par sa raison d'être : libérer les énergies humaines par la technologie pour un avenir inclusif et durable.
Fort de 55 ans d'expérience et d'une grande expertise des différents secteurs d'activité, Capgemini est reconnu par ses clients pour répondre à l'ensemble de leurs besoins, de la stratégie et du design jusqu'au management des opérations, en tirant parti des innovations dans les domaines en perpétuelle évolution du cloud, de la data, de l'Intelligence Artificielle, de la connectivité, des logiciels, de l'ingénierie digitale et des plateformes.
Le poste
Au sein de nos équipes projet, vous contribuerez au développement de solutions digitales innovantes pour des clients grands comptes dans les secteurs banque, assurance, énergie et industrie. Vous intégrerez une équipe pluridisciplinaire, organisée en mode Agile, et intervenant sur des projets à fort impact métier.
Vos missions principales
- Concevoir et mettre en œuvre des solutions de stockage et de traitement des données sur la plateforme Snowflake, en respectant les standards de performance et de sécurité
- Développer et optimiser des pipelines de données pour alimenter le Data Warehouse, en intégrant des sources variées (cloud, on-premise)
- Collaborer avec les équipes métiers et techniques pour comprendre les besoins et proposer des architectures adaptées
- Assurer la qualité, la fiabilité et la gouvernance des données (contrôles, traçabilité, conformité)
- Participer à l'amélioration continue des processus et à l'intégration des bonnes pratiques DataOps/Cloud
Profil recherché
Formation et expérience
- Diplôme Bac+5 en informatique ou systèmes d'information
- Expérience confirmée de 3 ans ou plus sur Snowflake et les environnements Cloud (Azure, AWS ou GCP)
Compétences techniques
- Bonne maîtrise du langage SQL et des concepts de Data Warehouse et modélisation dimensionnelle
- Connaissance des outils d'intégration et d'orchestration (ETL/ELT, pipelines, scheduling)
Qualités personnelles
- Capacité à travailler en équipe, sens de l'organisation et aptitude à communiquer avec des interlocuteurs métiers et techniques
- Esprit analytique, autonomie et capacité à résoudre des problèmes complexes dans des contextes multi-projets
Cette description d'emploi a pu être reformatée par Postule pour améliorer sa lisibilité et sa présentation. Le contenu et les informations restent fidèles à l'offre d'emploi originale. .
