Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur Plateforme Data AWS (F/H)
📑 CDI (42-48K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 5 an minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur Plateforme Data AWS pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : au sein de l'équipe Plateforme Data AWS, après une phase d'appropriation de l'existant technologique, vous serez l'un des piliers pour répondre aux besoins métiers et projets. Voici un aperçu de vos futures responsabilités : - Participer aux phases de conception et de déploiement des outils - Rédiger les procédures d'installation et de livraison - Assurer l'exploitabilité des composants, en respectant les normes et bonnes pratiques (ordonnancement, performance) - Produire les livrables conformément aux processus qualité (fiches action, plans de bascule) - Réaliser la check-list de mise en production - Optimiser les traitements et diagnostiquer les incidents - Garantir la sécurité du SI cloud AWS - Développer des composants d'exploitation sous Linux, AIX et AWS - Mettre en place des chaînes d'ordonnancement
Offre d'emploi
Responsable Gestion des Données de Validation – Driver Monitoring System (F/H)
📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous recherchons un.e Data Manager pour renforcer notre équipe dédiée à la validation du Driver Monitoring System (DMS), un système avancé de surveillance basé sur des caméras embarquées. Ce dispositif enregistre des données précieuses sur l’état de fatigue, de vigilance et de stress des conducteurs, afin d’améliorer la sécurité sur la route. Vos responsabilités : Vous aurez un rôle stratégique dans la gestion des données de validation, depuis leur collecte jusqu'à leur archivage et leur mise à disposition pour les équipes de test. Tâches principales : - Collecter et traiter les données de test nécessaires à la validation des systèmes de surveillance des conducteurs. - Assurer la vérification et l’annotation des données conformément aux catalogues statistiques et déterministes spécifiés. - Gérer les flux de données : stockage, archivage, transfert et mise à disposition des données pour les campagnes de validation planifiées. - Définir et mettre en œuvre des processus, outils et règles liés à la gestion des données de validation tout au long du cycle de vie du projet, y compris les phases post-SOP (PRCL). - Estimer les capacités et performances nécessaires pour le stockage et le traitement des données, en prenant en compte les coûts associés. - Collaborer avec les équipes R&D pour garantir la synchronisation des livrables et des versions tout au long du projet.
Offre d'emploi
Data Engineering Manager
Dans le cadre d'un projet majeur de transformation digitale et de données, nous recherchons un Senior Data Engineering Manager qui rejoindra l'équipe au premier trimestre 2025. Rôle : Responsable de l'ingénierie des données Lieu de travail : Paris Central Flexibilité du travail hybride Date d'entrée en fonction : Q1 2025 Vous serez à la tête de notre équipe de données et superviserez la stratégie de données et l'exécution de la feuille de route. Principales responsabilités : Participer à la transformation numérique des données et veiller à ce que les objectifs de l'entreprise soient atteints. Diriger et gérer l'équipe de base chargée des données. Faire évoluer et développer l'équipe de données par le recrutement et le mentorat continu. Agir en tant que référent pour l'architecture globale et les questions techniques. Promouvoir les meilleures pratiques en matière de données et favoriser une culture d'amélioration continue.
Offre d'emploi
Release train engineer H/F
🌟Quel sera ton poste en tant que Release train engineer H/F chez SYD Groupe ?🌟 En tant que Release train engineer, tu auras pour mission principale • Participer aux plannings et s'engager sur les produits et services à livrer dans chaque release • Garantir la livraison dans les temps des engagements pris • Collaborer étroitement avec les équipes concernées • Animer/coordonner les backlogs des équipes qu’il/elle accompagne • Gérer les dépendances et la communication avec les parties prenantes • Accompagner les collaborateurs, en s'assurant de leur bonne compréhension des objectifs, du périmètre, de la clarification des User Stories et déclinaison en incréments, dans le traitement des freins et/ou irritants • Planifier, co-animer et faciliter les cérémonies Scrum Rejoins-nous pour mettre à profit ton expertise en gestion de releases, relever des défis stimulants et contribuer à l'amélioration continue de nos processus au sein d'une équipe dynamique et collaborative !
Offre d'emploi
Business Analyst Cloud & FinOps
Contexte & Objectifs de la prestation L'équipe FinOps et Refacturation IT dépend de la direction de la Production et Infrastructure à pour mission - de maitriser les dépenses des opérateurs Cloud - de maintenir les inducteurs de refacturations infrastructure et exploitations IT Nature et étendue de la prestation Dans le cadre de la maitrise des dépenses Clouds : - Analyser les dépenses relatives au services Cloud - Mainetnir à jour un tableau de bord PowerBI temps réel des dépenses et des optimisations économiques - Suivre quotidiennement les dépenses et alerter en cas de dérive; convenir de plan d'action avec les équipes opérationnelle, suivre ces plans d'action - Rechercher des voix alternatives de réduction de coûts et les faire valider - Piloter la mise en œuvre des solutions de réduction de coûts retenues - Estimer les ROI et TCO des éventuelles migrations de ressources dans le Cloud Dans le cadre de la maitien à jours des inducteurs de refacturation : - Fournir les inducteurs de refacturation des infrastructures techniques pour les différentes échéances budgétaires
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Offre d'emploi
Technical Manager (H/F).
✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Technical Manager (H/F).🚀 ✨ Votre mission est pour un client reconnu dans la production d’électricité. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸S’assurer que l’équipe produit exploite les services transverses du Programme (méthodologies Design, CI/CD, InnerSourcing compatible Cyber, etc.). 🔸Appuyer le Lead Dev sur les aspects Craft, la pyramide de tests et les bonnes pratiques de développement. 🔸Garantir l’expérience de développement (DevEx) pour améliorer la performance du Delivery. 🔸S’assurer de l’adoption d’une démarche d’amélioration continue et d’innovation au sein de l’équipe. 🔸Identifier les obstacles techniques et participer activement à leur résolution. 🔸Garantir la mise en place des exigences et le suivi des indicateurs de performance. 🔸Organiser les activités de Build et de Run du produit. 🔸Appuyer le Product Owner (PO) dans la gestion et l’animation des cérémonies agiles. 🔸Participer aux grandes cérémonies de l’équipe (démos, rétrospectives, etc.) et à certaines cérémonies quotidiennes. 🔸Encourager l’équipe à partager et capitaliser ses apprentissages et bonnes pratiques au niveau du Programme. 🔸Participer au staffing et à la gestion des membres de l’équipe technique. 🔸Gérer les processus de sourcing externes. 🔸Organiser et faciliter l’onboarding des nouveaux membres.
Mission freelance
Ingénieur Data gouvernance (H/F) 75
Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Mission freelance
Pilote Delivery Manager (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Pilote Delivery Manager (H/F) à Bordeaux, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : 2 jours de présentiel à Bordeaux + 3 jours télétravail Les missions attendues par le Pilote Delivery Manager (H/F) : Contexte (stack technique, taille de l'équipe, méthodologie de travail, composition de l'équipe) et enjeux du projet : Equipes engagées sur le développement des produits digitaux en remplacement du SI Legacy selon une organisation et des méthodes industrielles de delivery. Cette usine regroupe différents périmètres fonctionnels, chacun composé d'une ou plusieurs squad de développement. Responsabilités confiées : Le pilote du delivery facilite l’organisation des équipes techniques et la mise en place des bonnes pratiques. Il est garant de l’application de la méthodologie du Programme autour du Delivery et s’assure de la performance des équipes de réalisation. Prestations attendues (principales et secondaires) : Garantit la mise en place des exigences et le suivi des indicateurs de Delivery S'assure que l'équipe produit utilise les services transverses du Programme (ex: méthodologies Design, CI/CD, InnerSourcing compatible Cyber,…) Organise les activités de Build et de Run du produit Appuie le Lead Dev sur les aspects Craft, pyramide de tests,… (bonnes pratiques) Garantit l’expérience de développement (DevEx) afin d’améliorer la performance du Delivery Appui le PO sur les cérémonies agiles S’assure que l’équipe est dans une démarche d’amélioration continue et d’innovation S’assure que l’équipe partage et capitalise ses apprentissages et bonnes pratiques au niveau du Programme Identifie les obstacles techniques et participe activement à leur résolution Participe au staffing et à la gestion de l'équipe technique Sourcing externes Onboarding Suivi régulier des équipiers (fait des « one to one » avec chacun) Gestion / suivi des compétences Participe aux grandes cérémonies de l’équipe (démo, retro,…) et à certaines cérémonies quotidiennes
Mission freelance
Ingénieur devOps / SRE
📺📻 Recherchons prestation DevOps, SRE, Cloud Engineer. Expertise Cloud de type #AWS, #GCP, #OVH, #K8s, #Puppet, #Ansible, #HAProxy, #Ansible. Prestation temps plein 50% télétravail à Lyon dans les locaux d'un de nos clients secteur audiovisuel. BUILD : Analyse des besoins, industrialisation avec Puppet/Ansible, gestion de conteneurs Kubernetes et infrastructures Cloud (AWS, GCP, OVH). RUN : Supervision, gestion des alertes/incidents (HAProxy, Varnish), scripting Bash, documentation. Compétences clés : Linux (Debian), virtualisation (Proxmox, VMware), technologies web (Apache, PHP, MySQL, MongoDB), réseaux (TCP/IP). On en discute ? ☀️ Contactez moi : #Kubernetes, #Linux, #Debian, #Apache, #PHP, #MySQL, #MongoDB, #Proxmox, #VMware, #Cloud, Infrastructure, hiring, prestation, temps plein, freelance, Amazon Web Services (AWS), Google Cloud Platform, OVHcloud, Kubernetes, Puppet, Ansible by Red Hat, Linux, Debian, HAProxy, Technologies The Apache Software Foundation, PHP, Oracle, MySQL, MongoDB, Proxmox Server Solutions, VMware
Mission freelance
Architecte d'entreprise et solution Assurance Finance et Risques
Nous recherchons un Architecte d'entreprise et solution pour intervenir de la phase d'étude d'opportunité jusqu'à la mise en production des différents projets de notre client Assureur. Vos missions : Produire deux livrables par projets (diagnostique d'architecture et dossier d'architecture fonctionnelle) vérifier la conformité d'implémentation des impacts documenter toutes les connaissances dans l'outil référentiel d'architecture (lean IX) et dans le dictionnaire de données de notre client. Prérequis : Bac+5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte d'entreprise et solution pour des grands compte de l'assurance. (Assurance de personnes, épargne, et ou assurance de biens) Connaissance du domaine finance/risque et des spécificités assurantielles telles que Solvency II Expérience en processus RH et intégration de progiciels RH (idéalement Workday) Maitrise de la modélisation de processus (norme BPMN V2), et approche Data au sein du SI Stack techniques : On Premise, Cloud (AWS)), Mainframe, digital développé en interne, solutions SaaS ou progicielles. Anglais courant obligatoire
Mission freelance
Analyste SOC N3
Analyser et répondre aux incidents de sécurité complexes identifiés par les outils de monitoring. Réaliser des investigations approfondies sur les incidents critiques et produire des rapports détaillés. Développer et maintenir des playbooks d’automatisation Superviser et optimiser les configurations des plateformes de monitoring Effectuer des revues régulières des logs pour identifier des anomalies ou des menaces potentielles. Collaborer avec les équipes internes et externes pour renforcer les stratégies de sécurité. Proposer des recommandations d’amélioration continue pour les systèmes et les processus de sécurité. Participer activement à la définition et à la mise en œuvre des politiques de sécurité cloud (AWS).
Offre d'emploi
EXPERT POWERBI 5 ANS D'XP
Dans le cadre d’une mission stratégique pour les médias, nous recherchons un Expert PowerPlatform Microsoft pour contribuer à la mise en œuvre et l’optimisation de solutions technologiques innovantes. Ce projet s’inscrit dans un environnement technique avancé, orienté vers l'amélioration continue et le développement d’architectures robustes. L'Expert PowerPlatform Microsoft jouera un rôle clé dans la gestion, le développement et l’optimisation des systèmes technologiques critiques. Les responsabilités incluent : Administration Gestion et administration de la solution PowerBI. Maîtrise des technologies liées telles que Snowflake, Microsoft Azure, PowerShell, et les API Rest. Développement Réalisation de développements avancés et conception de solutions complexes. Mise en œuvre de projets impliquant des architectures sophistiquées : ingestion de données massives, systèmes orientés événements (event-driven), etc. Amélioration continue Renforcement de la résilience des systèmes existants. Contribution aux initiatives d’optimisation et de transformation dans un environnement technique complexe.
Offre d'emploi
Data Engineer (H/F)
NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. En tant que Data Engineer (Senior) au sein de l'équipe Data, vos principales missions consisteront à : - Contribuer à l'enrichissement de la plateforme de données (ETL). - Améliorer la robustesse des pipelines de production pour les applications de - - Machine Learning (inférence en temps réel, etc.). - Intégré(e) dans une équipe de spécialistes en données (data engineers, machine - learning engineers, data scientists, data analysts), vous jouerez un rôle clé pour garantir la position dominante de la solution sur son marché. STACK ET OUTILS Technologies : Apache Spark, Kafka, AWS, Databricks, Python, Airflow, Mlflow, TensorFlow, Delta Lake, Superset, Kubernetes, Redshift, SQL, Terraform, Ansible. LES MISSIONS - Concevoir et implémenter une architecture performante, robuste, scalable et avec des coûts maîtrisés pour les applications Spark ainsi que pour les pipelines de production de Machine Learning (évaluation des feature stores, refactoring de DAG Airflow). - Accompagner les Data Scientists lors de la mise en production (relecture de code, pair programming) et établir les meilleures pratiques. - Optimiser et améliorer la CI/CD de l'équipe en collaboration avec l'équipe SRE. - Assurer la montée en compétences des membres de l’équipe sur les sujets de MLOps et Data Engineering. - Explorer les meilleures façons d'intégrer les données Google Analytics dans la plateforme de données. - Partager vos connaissances et présenter les travaux devant toutes les équipes techniques.
Mission freelance
AMOA Data - Référentiels Tiers - Secteur Banque
Nous recherchons un consultant AMOA Data pour accompagner l’un de nos clients, une banque de financement basée à Paris, dans le cadre d'un projet de transformation des processus de gestion des données. La mission porte sur la mise en œuvre d'un catalogue de données et l’amélioration de la qualité des données des référentiels tiers dans les domaines Finance et Risques. Rôles et responsabilités : - Représenter le programme dans les instances DATA et assurer une interface fluide avec les parties prenantes. - Participer au projet d’outillage du dictionnaire de données : Migrer le dictionnaire de données Finance et Risques de son format actuel (Excel) vers l’outil cible (Data Galaxy). Créer et implémenter un dictionnaire de données pour d'autres directions actuellement non documentées. - Finaliser le processus de mise à jour et validation du dictionnaire pour le domaine Finance et Risques (incluant le RACI et le mode opératoire) et soutenir la mise en œuvre opérationnelle. - Qualité des données : Diagnostiquer et résoudre les points bloquants existants, gérer la mise en qualité des données (cadrage, identification des données critiques, définition des règles cibles), et former les parties prenantes pour garantir une adhésion durable aux bonnes pratiques. Compétences requises : - Expérience en AMOA dans le secteur bancaire, avec une spécialisation en gestion de données et référentiels tiers. - Maîtrise des processus de migration et d'implémentation de dictionnaires de données, idéalement avec Data Galaxy. - Capacité à gérer des projets de qualité de données : analyse, remédiation, et conduite du changement. - Excellente capacité de communication et compétences en formation pour fédérer et accompagner les équipes. Détails : Lieu : Paris Date de démarrage : Mi-novembre 2024 Durée : 2 ans (1 an renouvelable) Télétravail : 2 jours par semaine Engagement : Temps plein Type de contrat : Freelance
Mission freelance
Data Engineer Spark/Scala F/H
Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données. Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala. Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.). Assurer la qualité, la performance et la sécurité des flux de données. Participer à l’optimisation des performances des traitements Big Data. Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets. Implémenter les meilleures pratiques en matière de gestion des données et d’architecture. Surveiller et résoudre les incidents liés aux flux de données en production. Compétences techniques : Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée). Solides compétences en conception et optimisation de flux ETL. Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL. Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP). Connaissance des écosystèmes Hadoop et des frameworks Big Data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.