Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et au sein d'une équipe agile, vous devrez répondre aux différents besoins de l'entreprise : - Définir les architectures des solutions avec le reste de l'équipe, - Fabriquer et tester les solutions, - Déployer dans les différents environnements, - Garantir le bon fonctionnement en production, - Entrainer et tester des modèles de Machine Learning. La stack Technique : - Spark, Kafka, Java - Python, PY Spark - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Data Engineer (H/F)
Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.
Offre d'emploi
Data Engineer (H/F)
Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)
Offre d'emploi
Lead Data Engineer (H/F)
Vos missions ? En tant que Lead Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : MongoDB, PostgreSQL Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) Scala, R, Docker, Jenkins Gitlab/Github Grafana
Mission freelance
Tech lead data - GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Offre d'emploi
Chef de projet Data (H/F)
Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Offre d'emploi
Data scientist (H/F)
Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Data Cloud Architect
En tant que membre de l'équipe Data Capture, ce poste requiert une solide expertise technique et architecturale, ainsi qu'une expérience pratique significative dans les technologies Cloud, le développement de microservices et l'architecture pilotée par les événements (Event Driven Architecture). Il implique également une collaboration étroite avec les équipes informatiques du Groupe s, les partenaires métiers, les partenaires externes et tous les membres de l'équipe d'intégration. Objectifs et livrables : Concevoir et proposer des solutions autour des données en utilisant les technologies Azure Cloud dans notre cadre de travail Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie "Data as a Service" conformément aux meilleures pratiques architecturales Concevoir et développer des API/microservices pour enrichir notre cadre de solutions Soutenir la stratégie d'architecture pilotée par les événements basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l'enrichissement en libre-service Participer à la modernisation et à la sensibilisation technologique au sein de l'équipe Data Capture et dans l'organisation Data & Analytics Être le référent au sein de l'équipe sur tous les sujets liés au cloud Animer des ateliers et faciliter la collecte des exigences Accompagner les Data Engineers sur les sujets liés au cloud Soutenir l'équipe Sécurité sur les sujets associés Contribuer à la feuille de route et à l'évolution de Data Capture Challenger et accompagner les fournisseurs externes
Offre d'emploi
SENIOR DATA ENGINEER (H/F)
Notre client, acteur majeur dans le domaine de l’e-commerce et de l’économie de plateforme, recherche son futur Senior Data Engineer (H/F) pour son site de Paris/Bordeaux afin de renforcer ses équipes techniques dans un contexte de forte croissance et d’innovation technologique. Vos missions : Intégré à une équipe dynamique composée de spécialistes data (Data Engineers, Machine Learning Engineers, Data Scientists, Data Analysts), vous serez amené à : •Enrichir et optimiser la Data Platform (ETL). •Renforcer la robustesse des pipelines de production pour les applications Machine Learning. •Contribuer aux projets d’IA générative et de Computer Vision. •Accompagner l’intégration et l’industrialisation des modèles d’IA fine-tunés avec les équipes Data Science. •Définir et implémenter une architecture robuste et scalable pour les pipelines Spark et ML. •Assurer la montée en compétences des membres de l’équipe sur les sujets MLOps et Data Engineering. •Optimiser les pipelines d’ingestion de données et leur orchestration. •Participer à l’intégration des données Google Analytics dans la Data Platform. Les compétences techniques •Solide maîtrise de Python et des frameworks Apache. •Expérience avec AWS et outils associés. •Compétence en orchestration avec Airflow ou un outil équivalent. •Familiarité avec les architectures Big Data et les systèmes de pipelines complexes. •Connaissances en CI/CD et pratiques DevOps. •Bonnes bases en Machine Learning et intégration de modèles ML en production. •Capacité à travailler en environnement Kubernetes. •Maîtrise du SQL et des systèmes de gestion de bases de données massives.
Mission freelance
Expert DevOps Cloud (GKE/OpenShift) - Projet Innovant dans le Secteur Retail - Chatillon (H/F)
Notre entreprise est à la recherche d'un talentueux Expert DevOps Cloud pour accompagner notre pôle DevOps dans une mission clé. Engagés dans une culture DevOps, Cloud, CICD et automatisation forte, nous visons à optimiser nos processus de déploiement et d'intégration continue. L'équipe, composée de professionnels passionnés, gère une variété de projets innovants visant l’excellence opérationnelle et la satisfaction client. La création de ce poste répond au besoin d'intégrer des solutions logicielles et matérielles de haute qualité dans notre environnement de production cloud et de renforcer nos capacités d'automatisation et de déploiement continu. ▶️ Missions Principales: Intégrer des solutions dans l'environnement de production Cloud (GCP/OpenShift) et en assurer le déploiement via CICD. Gérer le support nécessaire des applications lors des incidents en production. Intervenir dans la mise en exploitation de nouvelles applications ou la livraison de nouvelles versions. 🛠️ Stack technique À maîtriser: GKE/GCP - Confirmé Ansible (Tower) - Confirmé GitLabCI - Confirmé Helm - Confirmé Environnement technique global: Cloud Providers (GKE/OpenShift) CI/CD Pipelines Automatisation et conteneurisation
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Offre d'emploi
Ingénieur Cloud - Lille / CDI
Vous serez un point de contact privilégié des équipes métiers pour leur présenter les principes de migration et coordonner vos actions avec les leurs : Mise à jour de Documents d`architecture Cible prenant en compte l`architecture des nouvelles landing Identifier les Matrices de flux à autoriser dans le contexte d`hébergement cible. Cahier de recette technique Pré/Post Migration Chiffrage des couts d`infrastructures Cloud lors des migration Etablissement des Playbook de Migration Transfert de connaissance au partenaire assurant les opérations Accompagner les BU et autres SLS dans la migration des applications vers les nouvelles Landing Zone Azure.
Mission freelance
Consultant BI (H/F)
Notre client, un acteur majeur du secteur industriel, recherche un Data Engineer (H/F) à Toulouse, pour accompagner la gestion et l'optimisation des flux de données au sein de son infrastructure. Vous jouerez un rôle clé dans la mise en place et le suivi des processus ETL, ainsi que dans la visualisation des données. Vos missions : * Concevoir, déployer et optimiser des flux ETL (notamment avec des outils tels que Talend) pour garantir le bon traitement et l'intégration des données. * Gérer et transformer les données en informations exploitables à l’aide d’outils de visualisation comme Power BI et éventuellement Business Objects (BO). * Collaborer avec les équipes techniques et métiers pour comprendre les besoins en données et développer des solutions adaptées. * Assurer la qualité et la fiabilité des données, en mettant en place des processus de validation et de suivi. * Contribuer à l'amélioration continue des systèmes de gestion de données et des flux ETL. Compétences techniques : * Expertise dans la gestion des flux ETL avec des outils tels que Talend ou équivalents. * Bonne maîtrise des outils de visualisation de données, en particulier Power BI (et idéalement Business Objects). * Solides compétences en gestion de bases de données et en transformation de données. * Capacité à travailler en collaboration avec des équipes techniques et métiers pour assurer la cohérence des données.
Mission freelance
Freelance Data Governance Practitioner
Nous recherchons un consultant expérimenté en gouvernance des données pour accompagner notre client dans la conception et la mise en œuvre d’une stratégie complète de gouvernance des données pour les Technologies Connectées. Cette mission vise à garantir la conformité aux réglementations en matière de protection des données et à intégrer les principes de protection des données dans le cycle de développement. Rôles et Responsabilités Concevoir une stratégie et une feuille de route pour la gouvernance des données des voitures connectées avec une approche centrée sur le client. Mettre en place un programme de conformité pour les Technologies Connectées, en garantissant le respect des réglementations (RGPD, protection des données, droit de la concurrence, anonymisation/minimisation des données). Réaliser des analyses d’impact sur la vie privée pour de nouveaux produits, fonctionnalités et services afin de réduire les risques liés à la confidentialité. Collaborer avec les équipes de développement produit pour intégrer les principes de "privacy by design". Être un interlocuteur clé pour les projets liés à la confidentialité, en comprenant les exigences techniques et fonctionnelles. Fournir des conseils sur la collecte, le traitement et le partage des données aux parties prenantes internes. Surveiller les évolutions des lois, réglementations et normes sectorielles en matière de protection des données pour maintenir la conformité. Collaborer avec les conseillers juridiques et les consultants externes sur des problématiques complexes de confidentialité. Définir et animer des formations sur l’utilisation des données des véhicules au sein de l’organisation, y compris pour les filiales et les distributeurs. Compétences requises Expertise confirmée en gouvernance des données et en réglementation sur la protection des données (RGPD, conformité, anonymisation des données). Expérience avérée dans la réalisation d’analyses d’impact sur la vie privée et l’intégration des principes de "privacy by design". Capacité à collaborer avec des parties prenantes techniques et fonctionnelles. Bonne maîtrise des évolutions des lois et des normes sectorielles en matière de confidentialité. Excellentes compétences en communication et en animation de formations. Maîtrise de l’anglais (indispensable). Détails Date de début : Dès que possible Durée : 6 mois (renouvelable) Lieu : Télétravail intégral, avec un déplacement par mois à Bruxelles. Taux journalier : 520 €/jour
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.