Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et au sein d'une équipe agile, vous devrez répondre aux différents besoins de l'entreprise : - Définir les architectures des solutions avec le reste de l'équipe, - Fabriquer et tester les solutions, - Déployer dans les différents environnements, - Garantir le bon fonctionnement en production, - Entrainer et tester des modèles de Machine Learning. La stack Technique : - Spark, Kafka, Java - Python, PY Spark - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
DATA ENGINEER GCP
Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Egalement, tu participeras à la migration du DWH Oracle vers Big Query GCP. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir, développer et optimiser les flux Être garant de la qualité du code Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL et PL/SQL Python Méthodologie Agile
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Mission freelance
Coordinateur Technique Intégration – IT
🚀 Opportunité Freelance en Bretagne - Expert en Architecture & Intégration IT Nous recherchons un expert en architecture et intégration pour une mission en Bretagne. Si vous avez une forte expérience en GCP , patterns d'intégration , et gestion de projets IT , cette mission est pour vous ! Expertise en architecture et GCP (Pub/Sub, API Gateway). Connaissance des protocoles REST, SOAP , JSON, XML . Expérience en gestion de projets avec Jira et Confluence . Compétences en Docker et Git . 1️⃣ Gestion des intégrations en méthode Agile . 2️⃣ Conception d’architectures scalables et résilientes. 3️⃣ Animation d’ateliers techniques et documentation. 4️⃣ Supervision des flux critiques et gestion des incidents. Lieu : Bretagne (présence sur site 3 jours/semaine) Technologies : Middleware, GCP, Jira, Confluence
Mission freelance
Delivery Lead / Chef de Projet Technico-Fonctionnel (SAP / Data / Cloud)
Localisation : Issy-les-Moulineaux (hybride, potentiellement 2 jours par semaine sur site) Démarrage : Début janvier Expérience : 15 ans minimum TJM : En discussion (potentiellement autour de 700 €/jour) Dans le cadre d'un projet stratégique, Accor recherche un Delivery Lead expérimenté pour piloter la mise en œuvre et le suivi d'une solution technique autour de SAP, des données et des environnements Cloud. Ce rôle exige une expertise technique et fonctionnelle, une solide capacité de gestion d'équipe, et une bonne compréhension des enjeux stratégiques d'une organisation globale. Gestion de projet : Piloter le cycle de vie complet de la solution technique, de la phase de construction (build) à la phase opérationnelle (run). Garantir la cohérence des solutions et du cadre technique. Suivre et reporter l’avancement du projet, y compris les risques, obstacles, et alertes majeures. Superviser le budget et veiller au respect des engagements financiers. Expertise technique : Assurer la maintenance et l’évolution des architectures produit et infrastructure pour garantir leur performance, fiabilité et scalabilité. Superviser les intégrations avec des outils tiers pour assurer la compatibilité et l’interopérabilité des systèmes. Collaborer avec les fournisseurs tiers pour gérer les niveaux de support (L1, L2, L3). Leadership et coordination : Coordonner les équipes techniques internes et externes, tout en maintenant une collaboration efficace entre les différentes parties prenantes. Animer les comités techniques et fonctionnels pour aligner les objectifs du projet avec les besoins métier. Piloter la conduite du changement auprès des utilisateurs.
Offre d'emploi
Ingénieur.e Infrastructure Big Data AWS
Vous interviendrez au sein de l’équipe Data et serez chargé.e de concevoir, déployer et optimiser les environnements techniques permettant le traitement des données. Vous assurerez la fiabilité, la scalabilité et la sécurité des infrastructures Big data. Votre rôle Conception et déploiement d’infrastructures Big Data · Concevoir et déployer des architectures distribuées pour les plateformes Big Data · Intégrer les solutions Big Data dans des environnements cloud AWS · Assurer la scalabilité et la haute disponibilité des infrastructures Automatisation et maintenance des environnements · Automatiser le déploiement des environnements · Maintenir et mettre à jour les environnements existants, en assurant leur stabilité et leur performance · Gérer les pipelines CI/CD pour l’intégration continue des workflows Big Data Surveillance et sécurité des systèmes · Surveiller la performance des systèmes · Garantir la sécurité des infrastructures Big Data · Implémenter des mécanismes de sauvegarde et de récupération des données Collaboration et support technique · Collaborer avec les équipes Data (data engineers, data scientists) pour comprendre les besoins métier · Apporter un support technique aux équipes en cas de dysfonctionnement ou d’incidents sur les systèmes Big Data Veille technologique et amélioration continue · Suivre les évolutions des technologies Big Data et des bonnes pratiques · Proposer des améliorations pour anticiper les besoins futurs de l'entreprise
Offre d'emploi
Data Scientist (F/H)
📑 CDI (37-45K€) - 📍 Strasbourg - 🛠 Expérience de 2 ans minimum (hors stages / alternance) Vous êtes passionné(e) par l’intelligence artificielle et ses applications concrètes ? Vous aimez transformer des idées novatrices en solutions opérationnelles ? Nous avons une opportunité qui pourrait vous plaire. 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Scientist pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Participer activement à chaque étape du projet, de l’exploration R&D à la mise en production dans le cloud - Concevoir des modèles de machine learning (Deep Learning, IA générative) - Réaliser une veille technologique pour rester à la pointe des avancées en IA - Développer des services robustes en Python - Rédiger des spécifications fonctionnelles claires et précises - Contribuer aux daily meetings en méthodologie Scrum
Offre d'emploi
Développeur Python sénior | Casabalanca 100% Remote
Développement et optimisation : Concevoir, développer et maintenir des applications back-end robustes et performantes en Python . Exploiter les services de Google Cloud Platform (GCP) pour concevoir des solutions cloud-native. Assurer l’intégration continue et le déploiement des applications via des pipelines CI/CD. Optimiser les performances des applications pour garantir leur évolutivité et leur disponibilité. Collaboration et coordination : Travailler en étroite collaboration avec les équipes agiles pour analyser les besoins métiers et concevoir des solutions adaptées. Échanger avec les développeurs front-end et les autres équipes techniques pour une intégration fluide des fonctionnalités. Contribuer à la montée en compétences des développeurs juniors en partageant tes bonnes pratiques et ton expertise. Assurance qualité et tests : Rédiger et exécuter des tests unitaires et d’intégration pour garantir la qualité des développements. Suivre les standards et les bonnes pratiques en matière de sécurité et de conformité. Innovation et veille technologique : Explorer les nouvelles fonctionnalités de GCP et proposer des améliorations pour tirer parti des dernières innovations. Contribuer à l’amélioration continue des outils, des processus, et des architectures techniques de l’entreprise. 🔧 Les technologies et outils que tu utiliseras : Langages : Python (Django, Flask ou FastAPI). Cloud : Google Cloud Platform (BigQuery, Pub/Sub, Cloud Functions, etc.). Bases de données : PostgreSQL, Firebase, et autres services GCP. DevOps : Docker, Kubernetes, GitLab CI/CD. Monitoring : Stackdriver, Prometheus, ou autres outils similaires.
Offre d'emploi
Data Steward / Consultant Data Governance (H/F)
Description du poste : Nous recherchons un Data Steward/Consultant spécialisé en gestion de la gouvernance des données pour accompagner une initiative stratégique de structuration et de valorisation des données. Vous serez chargé(e) de collecter, structurer et cartographier les données dans un outil de type catalogue de données. Vous jouerez un rôle clé dans l’animation des ateliers métiers et dans l’accompagnement des équipes sur l’utilisation et l’enrichissement des métadonnées. Responsabilités principales : Collecter et analyser les besoins métiers pour la structuration des données. Réaliser la cartographie fonctionnelle et technique des cas d’usage. Mettre en place le suivi des flux de données (data lineage). Former et accompagner les équipes dans l’utilisation des outils de gouvernance des données. Produire la documentation technique et fonctionnelle.
Mission freelance
Responsable Global du Déploiement et de la Gouvernance du Data Catalog
Dans le cadre d’une transformation digitale ambitieuse, notre client, leader mondial dans son secteur, met en œuvre un programme de gouvernance des données à grande échelle. Ce projet repose sur le déploiement d’un Data Catalog global visant à harmoniser les pratiques de gestion des données entre ses équipes centrales et locales. Le Global Data Catalog Lead aura pour principales missions : • Assurer le déploiement, l’administration et l’adoption du Data Catalog dans un environnement cloud. • Piloter les opérations liées à la gouvernance des données, notamment la documentation des actifs, la gestion de la data lineage et l’optimisation des processus via des scans automatisés et des KPI de performance. • Former et animer les communautés Data (Data Owners, Data Stewards, Data Quality Managers) afin de garantir une adoption réussie des outils et processus. • Gérer la relation avec le fournisseur de la solution Data Catalog et proposer des améliorations continues. • Superviser la consommation de l’outil et sa gestion FinOps. Ce rôle stratégique est au cœur des initiatives Data de l’entreprise et contribue directement à l’optimisation des processus et à la qualité des données dans un environnement complexe et international.
Offre d'emploi
Data Engineer - Spark/Scala/Databricks
Compétences technologiques indispensables : Maîtrise de l'API Scala Spark (principalement pour les traitements batch). Expertise dans l'optimisation des performances Spark, avec une expérience avérée dans le traitement de volumétries importantes et complexes. Solide expérience en développement Scala et bonnes pratiques de codage. Compétences en build Maven et gestion des dépendances. Expérience de travail dans un environnement cloud (idéalement sur Azure ou AWS ). Compétences appréciées : Connaissance d' IBM Datastage et de son écosystème. Expérience avec Databricks , ses outils et ses services. Compétences transverses : Aisance relationnelle et capacité à travailler efficacement avec différentes parties prenantes. Esprit d'équipe et forte capacité d'adaptation aux évolutions des projets. Rigueur, sens de l’analyse et capacité à faire preuve d’une synthèse pertinente. Autonomie dans la gestion des tâches et des projets. Force de proposition pour améliorer les processus et l’efficacité des projets. Sens des priorités et gestion rigoureuse des délais dans un environnement dynamique. Capacité à travailler en mode multi-projets , tout en maintenant une vision globale des enjeux. Appétence pour comprendre les besoins clients et fonctionnels, et capacité à transformer ces besoins en solutions techniques pertinentes. Compétences en mentorat et partage de connaissances au sein de l'équipe.
Mission freelance
Chef de projet junior - Grenoble
Notre client recherche un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. • Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources • Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes • Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) • Être un support des équipes techniques et Data office dans leurs tâches sur l'outil.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Développeur Back
CONTEXTE Dans un contexte de modernisation des applications legacy, nous recherchons un développeur pour intervenir sur les applications liées au référencement des données de l’offre (produit, fournisseur, prix…). La mission permettra des interventions sur toute la chaine de la conception jusqu'au déploiement ainsi qu'à la gestion du run (culture DevOps). MISSIONS En tant que développeur, vous intégrerez une équipe agile composée d'un PO et de 3 à 4 développeurs. Dans cette équipe, vous serez garant de la qualité des features développées dans le respect des bonnes pratiques de développement et des choix technologiques sur les différents composants du périmètre. Des ressources externes à l’équipe seront disponible pour permettre l’atteinte des objectifs. Le candidat devra comprendre rapidement l’éco-système au sein d'un contexte de modernisation Sera capable de prendre en charge les développements sur différents langages Sera capable d'utiliser la CI/CD pour intégrer les nouvelles features au produit Sera capable d'utiliser / analyser les sujets API du périmètre Une expertise dans le retail serait un plus pour le candidat Hard skills recherchées : Maîtrise technique indispensables SQL, BASH / SHELL / UNIX, NodeJS Maîtrise technique souhaitable : Java, C , GCP, KAFKA Bonne connaissance de GIT Anglais Impératif Professionnel Soft Skills indispensables : Esprit d’analyse et de synthèse Coopération, Rigoureux, Curieux
Offre d'emploi
Expert Dynatrace Observability
Contexte: Dans le cadre de la transformation numérique et de l'amélioration continue des services IT, une banque de renom recherche un Expert Dynatrace pour renforcer la supervision de la performance de ses applications critiques. Vous jouerez un rôle clé dans l’optimisation des performances, la mise en place d’une observabilité avancée et l’automatisation des processus de monitoring, garantissant ainsi une expérience client irréprochable. Responsabilités : - Concevoir, mettre en œuvre et maintenir des solutions de surveillance basées sur Dynatrace pour garantir des performances optimales des applications et des infrastructures; - Personnaliser et développer des tableaux de bord Grafana pour une visualisation efficace des métriques et des données collectées par les systèmes de surveillance; - Gérer et maintenir les environnements ELK pour l'analyse des journaux; - Garantir la disponibilité et la performance continue des systèmes; - Participer à l'automatisation des processus de surveillance et d'administration pour assurer l'efficacité opérationnelle; - Fournir un support technique aux équipes internes et résoudre les problèmes liés à l'observabilité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.