Data Engineer / Data Scientist (Expert Python)

Pour une startup dans le domaine de l'énérgie fialiale d'un grand groupe, Le projet vise à consommer des modèles ML sur des données structurées, les transformer, et les intégrer dans des bases relationnelles ou des stockages type S3. Nous recherchons un profil hybride Data Engineer / Data Scientist , avec une expertise forte en Python , capable d’intégrer des algorithmes de Machine Learning dans des traitements batch. Le projet vise à consommer des modèles ML sur des données structurées, les transformer, et les intégrer dans des bases relationnelles ou des stockages type S3. Python (expertise avancée) PySpark , en particulier pour l'exécution de traitements ML batch Bonne compréhension des algorithmes de Machine Learning et de leur mise en production Bases de données relationnelles (PostgreSQL, MySQL, etc.) Stockage cloud : S3 ou équivalent Connaissance des bonnes pratiques de développement (structuration du code, logging, tests, performance)
INGENIEUR DATA BI - CLOUD AZURE

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Développeur DBT / Data Analyst Engineer H/F

Contexte de la mission : Dans le cadre de sa stratégie de valorisation de la donnée, un acteur majeur du secteur des télécommunications renforce son équipe Data sur un projet clé de transformation et de modélisation analytique. Vous intégrerez une équipe dynamique et pluridisciplinaire pour concevoir, maintenir et optimiser les modèles de données dans un entrepôt cloud structuré autour des bonnes pratiques modernes de data engineering. L'objectif de la mission est de garantir la fiabilité, la performance et la maintenabilité des pipelines de transformation, en lien étroit avec les équipes Data Engineering, BI et Produit. Responsabilités : Concevoir, développer et documenter des modèles de transformation SQL à l'aide de DBT (Data Build Tool), en respectant les standards de qualité et de performance attendus; Collaborer avec les équipes Data Engineering, BI et Produit pour comprendre les besoins métiers et proposer des modèles pertinents; Mettre en place des tests de données automatisés (tests DBT, assertions) pour garantir l'intégrité des données; Contribuer à l'automatisation des workflows de transformation via des outils d'orchestration tels qu'Airflow, dbt Cloud ou GitHub Actions.
Data Scientist expérimenté
Nous recherchons un(e) Data Scientist expérimenté(e) pour une mission stratégique au sein d’une entité spécialisée dans la mesure et le traitement de données industrielles. 🎯 Vos principales missions : Définition de l’architecture IA adaptée à l’environnement technique Développement et prototypage de modèles auto-apprenants Traitement de signaux techniques pour détection d’anomalies Intégration d’un pipeline de traitement automatisé (edge computing) Déploiement de la solution dans un environnement de production Documentation et suivi rigoureux du projet 🛠 Compétences requises : Excellente maîtrise en Python , C++ Solide expérience dans l’ IA appliquée à l’environnement industriel Connaissance des principes de cybersécurité et de sûreté de fonctionnement Rigueur, autonomie, capacités d’analyse et esprit d’équipe Maîtrise des méthodologies Agile Expérience en traitement de signal, edge computing ou IA embarquée
Product Data Manager

Contexte de la mission : Nous sommes à la recherche d'un Product Data Manager qui aura un rôle clé dans le cadre des différents projets de transformation des outils, process et migration de datas vers une solution cloud MISSIONS : Identifier les besoins en data pour répondre à des usages Campaign, Monitoring, Data Science, etc Analyser, rédiger et prioriser les features avec les équipes métiers, business et technique Contribuer à la mise en place des prototypes de nos usages en accompagnement de nos data engineers Participer avec notre IT aux étapes de conception, suivi d’implémentation et validation de la recette fonctionnelle (réalisée par une équipe dédiée) Veiller à la qualité des données servant aux usages en initiant ou faisant évoluer les actions en cours Participer activement à la gouvernance data et au change des équipes data du client
Architecte Data - H/F

Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Architecte Data pour l'un de nos clients du secteur bancaire et des assurances. Vous interviendrez sur le site client situé dans la région Nouvelle Aquitaine. À ce titre, vos missions quotidiennes seront les suivantes : • Prendre en charge les dossiers d'architecture des projets tout en garantissant leur cohérence avec la stratégie et la roadmap du Patrimoine Data ; • Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution des solutions Data ; • Apporter une expertise technique et fonctionnelle dans le cadre des transformations liées à la migration cloud ; • Promouvoir le cadre d'architecture Data auprès des équipes métiers et techniques, tout en étant un interlocuteur clé dans les décisions stratégiques. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Data Analyst Localisation : Marseille

Data Analyst Localisation : Marseille Connaissances des outils de data visualisation (ex : Power BI, Tableau, Qlik) • Bonne compréhension des environnements Cloud, data pipelines et API Expérience requise : 3 à 6 ans Langues : Français & Anglais courant requis Méthodologie : Agile – SCRUM Contexte du poste : Dans le cadre de projets data stratégiques à fort impact, nous recherchons un(e) Data Analyst expérimenté(e) pour piloter, analyser et accompagner la livraison de projets data & analytics dans un environnement agile et international. Vous interviendrez sur des projets innovants de type MFaaS, migration Cloud (WallE/Robo), en lien avec les équipes techniques, les métiers (ingénierie financière, direction produit) et les parties prenantes internes/externes. Missions principales : • Prise en charge du projet dans son intégralité, de la phase de spécifications au déploiement, en passant par les phases de développement, recette et go-live, dans un cadre Agile (SCRUM). • Suivi de la conception du projet : o Recueil du besoin client o Rédaction des spécifications fonctionnelles o Découpage en lots fonctionnels o Définition des livrables, tests utilisateurs o Création et suivi des KPIs de succès • Pilotage quotidien du projet : o Animation des daily meetings et sprint plannings o Priorisation du backlog de fonctionnalités o Coordination avec les équipes projet • Collaboration avec les équipes techniques : o Participation aux ateliers techniques o Échanges avec les équipes d’ingénierie financière et Gambit o Suivi des tickets, recette fonctionnelle et technique • Phase de déploiement et suivi post-livraison : o Suivi des livraisons BAU o Documentation des évolutions o Référent projet sur MFaaS o Suivi de la migration Cloud du projet WallE/Robo Profil recherché : • 3 à 6 ans d’expérience en tant que Data Analyst ou Business Analyst Data • Expérience avérée dans la gestion de projets data en environnement agile • Connaissances des outils de data visualisation (ex : Power BI, Tableau, Qlik) • Bonne compréhension des environnements Cloud, data pipelines et API • Capacité à travailler en transversal avec des équipes techniques et métier • Excellent relationnel, autonomie, rigueur et esprit d’analyse • Anglais courant indispensable (oral et écrit)
Architecte Data - Data Science & AI Innovation

Nous recherchons un(e) Architecte DataOps/GPU Grid pour notre équipe DataOps/DataLab chez un grand groupe bancaires pour renforcer ses équipes systèmes et GPU, en charge des produits et services de Data Science et IA. Vous rejoindrez une équipe dynamique de moins de 15 experts répartis sur trois pôles : AI Competency Centre, Automation, et GPU Grid System. Ce que vous ferez : Conception et mise en production : Participer à la conception technique, à l'implémentation en production et à l'industrialisation des produits et services IA Automatisation et industrialisation : Appliquer des pratiques Cloud Native et Kubernetes pour optimiser le cycle de vie des produits IA, avec un focus sur MLOps et LLMOps. Support et amélioration continue : Assurer le maintien en conditions opérationnelles et la supervision des 15+ plateformes Data Science du groupe, et participer à leur fiabilisation. Collaboration et partage de connaissances : Travailler en étroite collaboration avec l'équipe, tout en favorisant l'automatisation et le partage de bonnes pratiques.
Ingénieur Data Scala / Spark

Contexte du poste : Nous recrutons un Expert Data pour rejoindre une équipe projet dans le cadre de la mise en place d’une nouvelle plateforme de pilotage décisionnel. Cette plateforme accompagne la modernisation des systèmes d'information et remplace les outils existants devenus obsolètes. Vous serez directement impliqué dans l'intégration de données à fort volume, la modélisation et l’automatisation, le tout dans un environnement cloud moderne avec une forte culture de la donnée. Missions principales : Mettre en place les flux d’alimentation de données volumineuses via Databricks Concevoir les modèles de données décisionnels et les implémenter dans l’architecture cloud Participer aux rituels agiles du projet (daily, sprint review, planning, démo) Réaliser les notebooks sous Databricks et préparer les données pour la data visualisation Détecter les anomalies de données et contribuer à l'amélioration continue de la qualité Documenter l’architecture, les tests, les procédures de livraison et d’exploitation
Architecte Data H/F
À propos de SkillsFirst chez NEURONES : Filiale du groupe NEURONES, SkillsFirst accompagne les entreprises ayant un besoin d'assistance technique par l'intervention de compétences d'experts, notamment dans le domaine de la DATA. Nos valeurs : Ecoute, Réactivité, Professionnalisme. MISSIONS : Intégré chez nos clients Grands Comptes dans les secteurs Banque, Assurance, Energie, Industrie, etc., nous attendons de vous que vous maîtrisiez : L'architecture fonctionnelle et applicative ; L'architecture d'entreprise et les règles et principes d'architecture ; Les activités du marché mondial et/ou du secteur bancaire mondial. Plus généralement, vos missions peuvent varier en fonction du périmètre qui vous sera confié chez le client, et du type de projet à mener. Parmi les principales, on pourra citer : Challenger les nouveaux besoins des clients et les inclure dans la roadmap/release management ; Collaboration avec les métiers pour définir et mettre en œuvre les Data Product répondant à des besoins métiers spécifiques, en garantissant la qualité et l'accessibilité des données ; Évaluer l'architecture de gestion de données existante ; Réaliser les travaux d’architecture fonctionnelle et technique des solutions cibles ; Structurer l'information du système d'information ; Créer et gérer les modèles de données sous toutes leurs formes, conformément à la politique du référentiel de données ; Contribuer et enrichir le référentiel d'architecture des données ; Préconiser des solutions techniques de stockage et de gestion de Big Data ; Mettre en place des outils pour faciliter l'usage des données dans l'entreprise ; Assurer la conformité des solutions proposées avec la réglementation RGPD ; Surveiller l'efficience des BDD et proposer des mesures correctives ou évolutives.
Data analyst H/F

Nous recherchons pour notre client sur Marseille un Data analyst H/F. Missions : • Prise en charge du projet dans son intégralité, de la phase de spécifications au déploiement, en passant par les phases de développement, recette et go-live, dans un cadre Agile (SCRUM). • Suivi de la conception du projet : o Recueil du besoin client o Rédaction des spécifications fonctionnelles o Découpage en lots fonctionnels o Définition des livrables, tests utilisateurs o Création et suivi des KPIs de succès • Pilotage quotidien du projet : o Animation des daily meetings et sprint plannings o Priorisation du backlog de fonctionnalités o Coordination avec les équipes projet • Collaboration avec les équipes techniques : o Participation aux ateliers techniques o Échanges avec les équipes d’ingénierie financière et Gambit o Suivi des tickets, recette fonctionnelle et technique • Phase de déploiement et suivi post-livraison : o Suivi des livraisons BAU o Documentation des évolutions o Référent projet sur MFaaS o Suivi de la migration Cloud du projet WallE/Robo Avantages : Mutuelle – Prévoyance – Télétravail (2 à 3 jours par semaine) – Carte tickets restaurants.
Développeur Cloud migration

Le bénéficiaire souhaite une prestation d’accompagnement pour la migration d’une plateforme GenAI hébergée en IAAS vers du PAAS. Le profil recherché devra posséder de solides compétences en GenAI, incluant les LLM, RAG et Agentic, ainsi qu’une expertise approfondie en K8S. Il devra être capable d’intervenir sur l’architecture, le déploiement et l’optimisation des performances, en assurant la continuité des services et en apportant des solutions adaptées aux défis liés à cette transition technologique stratégique.
BIG DATA ENGINEER - SPARK SCALA F/H | NANTES (44)

VOTRE QUOTIDIEN RESSEMBLERA A… La mission consiste à assurer : Le design de solutions et d'architecture technique pour le backend Les développements d'alimentations et processing de données L’implémentation pour l'exploitation des données, restitution dans des Datasets ou Datamarts Le Support et la maintenance évolutive du backend La mise en œuvre de méthodes d'amélioration continue : Craft & Prod CI Le monitoring et CI sur qualité du code Vous rejoignez notre client en qualité de Big Data Engineer Senior F/H pour : Assurer le Développement des solutions Big Data Gérer l'intégration continue Définir les solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing) Poser la stratégie de développement et de tests Analyser l'impact de la conception du produit sur l'architecture technique du SI, définir les choix d'implémentation dans le SI Assurer le support applicatif via le monitoring et résolution associée Gérer le DevOps pour les parties IAAS et CD... Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 ou 2 jours de télétravail par semaine.
Data Scientist Expérimenté-Développement d’une solution d’IA

Conception, développement et industrialisation d’un noyau d’Intelligence Artificielle pour : Apprentissage automatique des débuts/fins de shunt sur signaux de surveillance. Détection et traitement automatique des anomalies de type tensions résiduelles (TR). Corrélation avec des données internes/externes pour maintenance prédictive. Déploiement d’un pipeline automatisé de traitement avec prise en compte cybersécurité, edge computing et fiabilité. Intégration dans l’IHM existante. Documentation complète de la solution.
IT SCALER DATA

Objectifs et livrables Les missions de l'IT Scaler DATA - DIT incluent : Support technique du Product Owner (PO) : Apporter une expertise technique et méthodologique sur les aspects IT. Comprendre, analyser et proposer des solutions techniques répondant aux besoins du business, qui intègre chaque jour de nouvelles données. Piloter le transfert de nouveaux produits : Définir les compétences requises pour la bonne reprise du produit, identifier les membres de la squad et coordonner les opérations nécessaires pour assurer un transfert efficace des responsabilités. Piloter la performance des équipes : Veiller à ce que les équipes techniques maintiennent un niveau de performance optimal et une efficacité élevée afin de garantir la réalisation réussie des projets attendus. Assurer la conformité : Veiller à ce que les développements des équipes techniques soient conformes au cadre d’architecture, de cybersécurité, de SRE et agile. Mettre en œuvre le monitoring et définir la roadmap SRE de l'application Concilier les attentes métiers et les évolutions techniques : Prendre en compte les attentes métiers et les évolutions techniques provenant de l’architecture et de la cybersécurité. Maintenir la qualité des livrables : Assurer la qualité des livrables produits et la fiabilité globale des solutions techniques. Anticiper et gérer les risques : Proposer des plans de mitigation et les mettre en œuvre. Créer et maintenir une culture d’amélioration continue : Favoriser l'identification des opportunités d'amélioration des processus, des pratiques de travail et des compétences techniques. Développer l’autonomie de l’équipe : Guider l’équipe vers une prise de décision autonome dans un cadre référencé. Contrôler l’adéquation des consommations : S'assurer que les consommations (cloud, ressources, etc.) sont en adéquation avec les objectifs sur son périmètre. Mise en production et suivi des pipelines de données : Suivre le déploiement des pipelines de données robustes (collecte, stockage, transformation et exploitation) Suivi et compréhension des processus qualité des données : Assurer la préparation, la complétude, l’épuration et l’enrichissement des données. Collaboration avec le Techlead offshore : Challenger et améliorer les processus internes ; localisation et traçabilité des données, standardisation des flux et des scripts de traitement des données, documentation. Automatisation des tâches récurrentes (intégration de nouveaux tags, reprise d'historique).
Data Architecte - Paiement / Cash Management

Au sein d'ITG Architecture, l'équipe Payment Architecture (PA) a en charge d'assurer l'architecture de la filière des paiements. Dans ce cadre, l'équipe travaille à la fois avec les équipes métier et IT pour répondre aux besoins des clients et collaborateurs du Groupe BNP Paribas. Les architectes paiement participent à l'instruction des dossiers et à leurs validations avec les SME (Risk, Sécurité, Production, ....) Skills attendus : TOGAF, Archimate, Archi et Autres outils de cartograhies Connaissances Data : Big Data, Hadoop Foundations Maitrise des solutions Data (HDFS, Dataiku, Starburst, Domino, ...) Flink, MQ, Kafka, Spark, Scala, Hive, HBase, Kafka, Elasticsearch Bonnes connaissances des patterns et architectures Data (Datahub, Datalake, DWH, Data Management, ....) Bonne connaissance de l'utilisation des solutions Data dans le Cloud Connaissance des paiements et du métier du Cash Management Français, Anglais : Courant La mission a lieu dans une équipe dédiée au paiement et aux cards
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.