Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Analyst
Mission Intégrer et optimiser la plateforme Looker pour son déploiement au sein des Business Units et autres plateformes chez un acteur majeur du retail. Concevoir une architecture répondant aux besoins métiers, garantir des performances optimales, et accompagner les équipes dans l’adoption de Looker. Créer et maintenir des tableaux de bord pour le pilotage des activités tout en assurant une gestion des coûts et une mise à jour des fonctionnalités Looker. Compétences techniques Expertise confirmée sur Looker (LookML, API, bonnes pratiques). Maîtrise des outils Google Cloud Platform (GCP), GitHub, et Terraform. Expérience en optimisation de plateformes et en intégration de solutions analytiques. Connaissances en visualisation de données et accompagnement d’équipes techniques.
Mission freelance
data engineer python / spark MLOPS senior / databricks (forcasting)
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.
Mission freelance
ML Ops / DevOps Data Toulouse (3 jours sur site)
La prestation consiste à renforcer avec un MLOps engineer notre équipe Datalab, qui est une équipe transverse de 6 data scientists internes. Chaque data scientist peut travailler sur des sujets différents, sur des périodes de 3 mois à 1 an, pour différentes applications demandées par les différentes Business Units. Les activités des data scientists peuvent être de plusieurs natures (régression, classification, segmentation sémantique), sur différentes données (images satellites, données météo ou océanographiques, télémétrie, trajectoires) en utilisant la technologie la plus adapté au besoin (du simple processing simple à du Machine-Learning ou du Deep-Learning). Il y a 2 ans, une plateforme (KFPC, KubeFlow Processing Chain) a été développée basée sur Kubeflow. Cette solution n'est utilisée aujourd'hui que pour l'inférence, de chaîne ML ou non ML et nécessite beaucoup de temps pour la maintenir. Cette solution ne permet pas ou n'est pas utilisée pour gérer les activités de data collection, préparation, experiment tracking, training et model registry. Pour cette prestation, les objectifs sont de: - mettre en places les outils, process et bonnes pratiques pour la phase amont du process MLOps jusqu'au model registry au moins, - participer aux activités Data Science. Ses activités consisteront à : - comprendre et analyser le problème posé par les data scientists, - définir le besoin de fonctionnalités nécessaires, process, frameworks et outils, - proposer une roadmap d'implémentation, - développer la solution en collaboration avec l'équipe IT (plateforme, réseau, infra), - valider l'implémentation avec les data scientists pour s'asurer de l'impact positif. Expérience demandée de plus de 6 ans
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Offre d'emploi
Cloud DevOps GCP
Poste : Ingénieur Cloud DevOps GCP Durée : Longue (Voire 3 ans) Lieu : Ile De France Description du Poste : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom , nous recherchons un Ingénieur Cloud DevOps spécialisé GCP . Vous serez chargé de concevoir, déployer et optimiser des solutions d’infrastructure cloud sur la plateforme Google Cloud Platform (GCP) , en assurant leur robustesse, leur performance et leur alignement avec les objectifs métiers. Responsabilités : - Expertise approfondie des services GCP et des outils natifs pour la conception et la gestion d'infrastructures cloud complexes ; - Solides compétences en Terraform et Ansible pour l'infrastructure as code et l'automatisation ; - Maîtrise de la mise en place et de la gestion de pipelines CI/CD avec GitLab CI , adaptés aux exigences d’un secteur bancaire ; - Orchestrer et gérer des conteneurs avec Kubernetes et Docker , en exploitant pleinement les capacités de Google Kubernetes Engine (GKE) ; - Bonne connaissance des outils ArgoCD , Maven , et SonarQube pour la gestion des configurations, des builds, et de la qualité logicielle ; - Optimiser les coûts et l’efficacité des ressources cloud en exploitant des services GCP tels que Compute Engine , Cloud Storage , et BigQuery .
Offre d'emploi
Ingénieur Réseau
Développement et documentation des fonctionnalités de MCO, Build et gestion de la dette technique des produits d'automatisation. Recueil et analyse des besoins des équipes Réseau et de l’infogérant , intégration de ces besoins dans le backlog des produits d'automatisation. Traitement des incidents relatifs aux produits d'automatisation signalés par les équipes Réseau ou l'infogérant. Montée en compétences sur les outils et technologies d'automatisation , en particulier en Python. Coordination avec les équipes Réseau et Automatisation dans le cadre de projets transverses.
Offre d'emploi
Développeur GO Confirmé H/F
Intégré(e) à une équipe, vos principales missions sont notamment : - Lire les spécifications systèmes et logicielles - Coder les composants physiques Modules de la solution : briques de monitoring (orchestration, container, réseau) et Data Integration Layer. Développement de la « Glue » logicielle entre les COTS/OSS de la plateforme. Création d'adaptateurs et de contrats d’insertion avec les logiciels applicatifs des produits. Mettre en place et gérer les pipelines CI/CD en conformité avec les règles de développement - Rédiger et exécuter les cas de tests, ainsi que les procédures de tests automatiques au cours du développement logiciel. - Définir et réaliser les cas de tests et procédures de tests manuelles complémentaires. - Collecter et tracer les résultats des tests par rapport aux exigences. - Configurer les COTS intégrés aux composants physiques de la solution conformément à la définition du Tech Lead. - Participer à l’écriture du manuel utilisateur.
Mission freelance
MLOps
Mission Développer et automatiser des produits et algorithmes Data (IA/Machine Learning) pour améliorer les décisions stratégiques au sein du périmètre marketing client. Créer des pipelines de données robustes et garantir la qualité via des sondes et une cartographie détaillée des données (structurées et non structurées). Mettre en œuvre des solutions de DataViz (PowerBI/Looker) pour fournir des insights exploitables et accompagner la stratégie Data du business. Compétences techniques Expertise en Python, Shell, CI/CD, Airflow, Dataflow, AppEngine, et FastAPI. Maîtrise des outils GCP (BigQuery), Git/GitHub, et des solutions de visualisation (PowerBI/Looker). Connaissance des méthodologies agiles (Scrum, Kanban) et des bonnes pratiques de gestion de données. Expérience avérée dans l’industrialisation de modèles ML/IA à grande échelle et la mise en production de pipelines complexes.
Offre d'emploi
Développeur Python
Nous recherchons pour notre client sur Lyon un Développeur python expérimenté afin de : Développer, exploiter et maintenir des applications. Assurer le développement et le déploiement de votre code via Docker et Kubernetes. Collaborer directement avec les Product Owners (PO) pour clarifier et développer les tickets. Participer aux sessions de backlog refinement avec l’équipe. Mettre à jour et gérer la documentation technique. Réaliser des Proofs of Concept (POC) et chercher à améliorer les solutions existantes.
Mission freelance
Data Scientist Confirmé - Segmentation & Connaissance Client
En tant que Data Scientist Confirmé, vous serez chargé(e) de : 1. Concevoir et implémenter des segmentations clients avancées : ○ Utiliser des techniques de machine learning (clustering, classification) pour identifier des groupes de clients homogènes. ○ Intégrer des données transactionnelles, comportementales et démographiques pour enrichir les analyses. ○ Assurer la mise à jour dynamique des segmentations pour un suivi temps réel des évolutions. 2. Optimiser la connaissance client : ○ Explorer et analyser les données pour identifier des insights sur les comportements et attentes des clients. ○ Développer des tableaux de bord interactifs permettant aux équipes Marketing d'accéder à une vision détaillée et actionnable des segmentations. 3. Accompagner la montée en compétences des équipes métiers : ○ Assurer la vulgarisation des modèles et insights auprès des non-techniciens. ○ Former les équipes sur l'utilisation des nouvelles segmentations et outils analytiques.
Offre d'emploi
Développeur GO Confirmé H/F
Intégré(e) à une équipe, vos principales missions sont notamment : - Lire les spécifications systèmes et logicielles - Coder les composants physiques Modules de la solution : briques de monitoring (orchestration, container, réseau) et Data Integration Layer. Développement de la « Glue » logicielle entre les COTS/OSS de la plateforme. Création d'adaptateurs et de contrats d’insertion avec les logiciels applicatifs des produits. Mettre en place et gérer les pipelines CI/CD en conformité avec les règles de développement - Rédiger et exécuter les cas de tests, ainsi que les procédures de tests automatiques au cours du développement logiciel. - Définir et réaliser les cas de tests et procédures de tests manuelles complémentaires. - Collecter et tracer les résultats des tests par rapport aux exigences. - Configurer les COTS intégrés aux composants physiques de la solution conformément à la définition du Tech Lead. - Participer à l’écriture du manuel utilisateur.
Offre d'emploi
Développeur Python F/H
À propos de nous : Grafton fait partie de Gi Group Holding, l’un des principaux acteurs mondiaux de services RH en faveur de l'évolution du marché du travail. Comptabilisant plus de 40 années d’expérience en Europe, Grafton est spécialisé dans le recrutement de professionnels qualifiés que ce soit pour des besoins uniques comme pour des projets volumiques. Grafton IT & Digital, expert du recrutement des profils IT recherche activement un développeur Python senior pour son client à Paris ! Contexte : Au sein de la DSI, l'ERP est le logiciel de gestion intégré utilisé par toutes les équipes de l'entreprise. Il est important de souligner que l’ERP est utilisé non seulement par la société mère mais aussi par les sociétés filles En dépit de périodes difficiles dans le secteur immobilier, notre client continue de croître. Par conséquent, un nombre croissant de projets sont actuellement en cours de développement. Pour soutenir cette expansion, l'équipe ERP nécessite un renforcement. Mission : Vous rejoignez l'équipe ERP composés de développeurs séniors et confirmés. L’ERP modulaire utilisé a un contexte métier très large car il couvre tous les aspects opérationnels de l’entreprise. Cet outil a été développé en interne et actuellement 80% de la base de code est écrite en Perl, mais tous les nouveaux développements sont réalisés en Python. L'objectif à long terme est de migrer entièrement vers Python. La migration sera effectué par une approche progressive, module par module
Mission freelance
Data Scientist
Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif
Mission freelance
Data Engineer AWS et Big Data
Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
Ingénieur Systèmes et Bases de Données (BDD)
Pour l'un de nos clients, nous recherchons un Ingénieur Systèmes et Bases de Données (BDD) . Participer à l’étude et à la montée de version de DB2 . Participer à l’étude de migration vers PostgreSQL 15 . Réaliser des revues de conception technique pour assurer la conformité des développements. Effectuer des analyses détaillées et la conception technique des solutions. Développer et exécuter des tests unitaires et d’intégration afin de garantir la fiabilité et la performance des systèmes. Mettre à jour la documentation associée aux systèmes et aux bases de données. Partager le code source et la documentation sur les plateformes d’intégration continue (écosystème Git / Jenkins). Assurer le support N3 des systèmes et des bases de données de l’équipe.
Mission freelance
Administrateur Supervision Zabbix – Freelance - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte de la Banque un/une Administrateur(trice) spécialisé(e) en supervision Zabbix. Vous participerez activement à des projets innovants de transformation et de convergence des outils de supervision et métrologie, tout en contribuant à l’amélioration continue des plateformes existantes. MISSIONS PRINCIPALES : Accompagner les projets de transformation liés à la supervision et à la métrologie, en proposant des solutions techniques sécurisées et industrialisées. Optimiser l’administration des plateformes par l’automatisation et contribuer à l’implémentation de nouveaux composants. Fournir un support expert auprès des équipes locales et offshore, tout en collaborant avec les éditeurs. Participer au contrôle qualité et à l’évolution des infrastructures techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.