Généré automatiquement par Postule AI à partir de l’offre.
Introduction au poste
Dans le cadre de notre événement "Data & AI Recruitment Week", qui se tiendra du mercredi 3 décembre au mercredi 10 décembre, nous recrutons un Data Scientist Senior pour renforcer notre équipe data. Vous interviendrez sur des projets de modélisation avancée, d'optimisation et d'exploitation intelligente de la donnée.
Le rôle consiste à développer des modèles performants, explorer de nouveaux cas d'usage et contribuer à l'évolution de nos pratiques data science. Si vous souhaitez évoluer dans un environnement innovant, exigeant et orienté impact, cette opportunité est faite pour vous.
Votre rôle
- Réaliser des analyses exploratoires (EDA) et préparer les données : nettoyage, gestion des valeurs manquantes, encodage
- Implémenter des modèles de base avec scikit-learn (régression logistique, arbres de décision) et établir une baseline documentée
- Évaluer les modèles avec des métriques adaptées (Accuracy, F1-score, RMSE) et présenter les résultats dans des notebooks clairs
- Contribuer aux scripts de préparation des données (pandas, SQL) en appliquant les bonnes pratiques de développement (PEP8, revues de code)
- Participer à la création de visualisations et de tableaux de bord (Matplotlib, Plotly, Power BI, Tableau)
- Maintenir une traçabilité des expérimentations (MLflow) et rédiger la documentation technique et utilisateur
- Collaborer avec les Data Engineers et Product Owners pour clarifier les besoins et améliorer la qualité des données
- Apporter un support à la mise en production encadrée : packaging simple, tests unitaires basiques
Vos qualifications
Formation
Bac +4/5 en école d'ingénieur ou université, avec spécialisation en data science, statistiques ou informatique.
Expérience
Minimum 4 ans d'expérience en Data Science ou dans un poste analytique équivalent.
Compétences techniques
- Excellente maîtrise de Python et des librairies data/science : pandas, numpy, scipy, scikit-learn, XGBoost/LightGBM
- Solide expérience en feature engineering, prévention du data leakage, cross-validation (y compris temporelle)
- Bon niveau en statistiques appliquées : tests, intervalles de confiance, bootstrap, bases d'inférence
- Maîtrise des méthodes d'évaluation : accuracy, F1, ROC-AUC, PR-AUC, RMSE, MAPE ; notions de calibration et coût-métriques
- Compétences pratiques en NLP : embeddings, spaCy, pipelines HuggingFace, nettoyage texte ; bases sur les Transformers
- Suivi et traçabilité des expérimentations : MLflow, notions DVC, Gitflow, CI légère
- Bonne compréhension des environnements Cloud (AWS, Azure ou GCP) : stockage, compute, Docker
- Premières expériences avec les LLMs : prompting, LoRA/QLoRA à petite échelle, évaluation simple (RAGAS, Giskard)
Compétences comportementales
- Rigueur, sens du détail et esprit d'équipe
- Curiosité technique, capacité d'apprentissage rapide
- Bonne communication et capacité à vulgariser
Langues
Maîtrise du français et de l'anglais.
Processus de recrutement
- Pré-sélection sur CV
- Entretien via Teams
Cette description d'emploi a pu être reformatée par Postule pour améliorer sa lisibilité et sa présentation. Le contenu et les informations restent fidèles à l'offre d'emploi originale. .
