Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Architecte product owner Cloud
Contexte Le client a engagé une transformation visant à devenir un "Cloud Service Provider" pour les métiers. Les enjeux sont de pouvoir digitaliser le parcours des développeurs, des équipes d’infrastructures et d’exploitations afin réduire notre "Time&Cost to market" tout en améliorant la fiabilité et la résilience de nos solutions. Pour cela, différents axes de travail devront être adressés : - La conception / développement des applications - Le déploiement des projets/produits - Les solutions d’hébergement - La culture Le client a défini une doctrine Cloud et une stratégie de mise en œuvre qu'il faut maintenant opérer en hébergeant en interne ce « Cloud Privé ». L’objectif est d’embarquer sur ces nouvelles solutions d’hébergement le patrimoine applicatif pour bénéficier de ses gains de temps et financiers. Pour embarquer le patrimoine, il est nécessaire de mettre en place des solutions de type « Platform Engineering ». Une structure projet/produit a été définie et se repartie en 4 équipes : • CCoE : En charge de la gouvernance et de la trajectoire • Outillage du développeur : en charge de la mise à disposition des outils pour les différents types de développeurs • Automatisation du déploiement : Mise à disposition des moyens d’automatisation de déploiements d’infrastructures et applicatifs • Infrastructure as Service : Mise à disposition de services managés d’infrastructures L’objectif de la mission réside dans l’accompagnement dans cette transformation pour aider l’équipe Cloud « Automatisation des déploiements » en tant que TechLeader DevOps. MISSIONS : • Participer à l’élaboration du design technique des produits et à leur intégration dans le SI • Garantir la qualité des produits • Participer aux recueils des besoins utilisateurs/clients - Recueille également les feedbacks et les intègre au Backlog Produit de l’équipe • Gérer et prioriser le Backlog Produit en vue 360 à la maille User Story pour l’équipe - Rédaction des Users Stories - Priorisation des fonctionnalités en fonction de la valeur pour l'utilisateur/client • Être en soutien de l’équipe - Clarification des User Stories - Participe à la qualité des développements en recettant les éléments • Contribuer à la vision et à la roadmap Produit
Offre d'emploi
Software Asset Manager Confirmé
Nous recherchons pour une mission d'accompagnement un Software Asset Management. Objectif de la mission : Stratégie Achat et Acculturation des équipes • Transmettre son expertise SAM au Shared Service Sourcing Achat en général sur la dimension accompagnement, pilotage du processus de gestion des actifs logiciels. • Contribuer à la mise en place du cadre de référence SAM (Etat de l'art, objectifs, trajectoire, bonnes pratiques, Rex...) à destination des Equipes Agiles et Métiers • Participer au déploiement du cadre de référence à destination des souscripteurs Anticipation du risque logiciel • Contribuer à l'analyse de risque du parc logiciel afin d'établir un plan de sécurisation Réaliser les actions de contrôles en collaboration avec les équipes • Garantir l'audit contractuel des éditeurs à risque • Obtenir la position de licence contractuelle • Identifier, avec l'aide du Contract Management, les manques éventuels • Réaliser l'audit des usages produits / mesurer l'utilisation • Remonter les écarts par rapport à la position contractuelle • Piloter les actions de contrôles en collaboration avec les équipes • Superviser les actions de mitigations des inconformités constatées (contrat, déploiements) • Produire le reporting associé aux audits • rapport d'étonnements et axes d'optimisations • comitologie de suivie avec les prescripteurs Outillage de la Gestion des Assets • Mettre en Œuvre l'outillage d'Inventory (type Bigfix) en lien avec les positions de licences étudiées (pour les grands assets - IBM - Microsoft - Oracle...) • Etre force de proposition sur l'exploitation de l'outillage SAM en général Maitrise du parc de Licences • Contribuer au peuplement de la base licences du référentiel SAM • Être force de proposition sur les métriques pertinentes permettant de mettre la gestion des software sous contrôle permanent. (Risque cout / Risque technologique) • Expérience éprouvée dans les fonctions de Software Asset Management ( > 7 ans) • Certification Agile / SAFe, sera demandée pour la mission • Respect des engagements : qualité, délais, suivi de la prestation • Traitement des sujets en profondeur • Esprit d'initiative, force de propositions • Expertise secteur bancaire ou assurance
Offre d'emploi
Architecte - Expert IBM H/F
La Prestation consiste à contribuer à/au(x) : Bon fonctionnement des systèmes Power IBM I (Logiciels et Hardwarela fiabilisation du moyen de DRP (Data Recovery Plan) La gestion des outils de réplication Suivi du Service Delivery et à la contribution à l’amélioration continue Respect et la mise en place des règles de sécurité du groupe Maintien et à la gestion des outils de métrologie et de supervision La résolution des incidents système (analyse, échanges avec les éditions L'assistance aux utilisateurs (niveau 3) de nos différentes entités nationales et internationales La mise en place des outils fonctionnels de production L’expertises sur les projets Contrôle et à l’analyse des règles de sécurité et à l’application des bonnes pratiques techniques Suivi de l’évolution des procédures en place La mise en place de solutions d’automatisation et d’industrialisation La mise en place de documentation des modes opératoires à appliquer et à la maintenance des schémas d’architecture- respect des procédures internes du groupe
Mission freelance
Senior Data Engineer
Nous recherchons pour le compte d'un groupe international renommé un Ingénieur Données Senior pour une durée initiale de 6 mois avec possibilité d'extension. Rôle : Senior Ingénieur Data Lieu: Lyon Durée : 6 mois (extensible) Travail Hybride : 2 jours travail par semaine Date de début : Janvier/Février 2025 Principales responsabilités : Vous travaillez sur la migration de Talend vers DBT, en assurant une intégration transparente. Concevoir, développer et optimiser des pipelines de données évolutifs, des schémas et des processus pour notre nouvel entrepôt de données. Collaborer avec des équipes interfonctionnelles pour fournir des solutions de données de haute qualité. Vous êtes en charge de l'organisation et de la mise en œuvre de l'ensemble des activités de l'entreprise, de la conception à la mise en œuvre.
Mission freelance
Chef de projet DATA
Ce projet s'inscrit dans une démarche stratégique visant à générer plus d'autonomie dans l'usage des données de notre client auprès des utilisateurs. Pour ce poste, il est attendu : La compréhension du périmètre métier retenu data La définition fonctionnelle de la solution L'analyse des risques métier (sécurité, J&C) et production Les hypothèses de la solution applicative et technique La frugalisation de la solution Les moyens de tests La stratégie de déploiement Les hypothèses de coûts (build et run) La roadmap et l'organisation
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Offre d'emploi
Expert Cloud et DevOps
Nous recherchons un(e) expert(e) Cloud et DevOps pour accompagner notre client dans le secteur bancaire dans la gestion de ses infrastructures. Le profil recherché devra avoir une parfaite maitrise dans les domaines suivants : Cloud : Maîtrise d’IBM Cloud pour la gestion, et le déploiement des solutions cloud au sein d'environnements bancaires. DevOps et automatisation : Expérience avec des outils comme Terraform, Ansible, Kubernetes, RedHat OpenShift, et HashiCorp Vault pour l’automatisation des processus, la gestion de la configuration et la sécurité des applications. CI/CD : Mise en place de pipelines CI/CD avec GitLab et ArgoCD, afin d’assurer une intégration continue fluide et une livraison rapide. Scripting : Compétences en scripting avec Bash et Python pour l’automatisation de tâches et la gestion des systèmes dans des environnements de production.
Mission freelance
Architecte Data Solution - CIB
Nous recherchons un Architecte Data Solution expérimenté ayant des expérience au sein du secteur bancaire CIB. Vos missions : Mise en place du data mesh en temps réel pour gérer les flux de données Travailler sur des modèles de données normalisés tels que Common Domain Model (CDM) et Financial Products Markup Language (FPML) pour standardiser les processus Architecture hexagonal et DDM : conception et mise en oeuvre des architectures hexagonales basées sur le Distributed Data Management Pré-requis : bac + 5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte Data Solution avec une ou plusieurs expérience dans le secteur bancaire, idéalement CIB vous avez obligatoirement travailler sur la mise en place du data mesh , travailler sur le CDM, FPML et l'architecture hexagonal (DDM) Maitrise de l'anglais maitrise de la stack technique big data : Kafka, Hive, Spark et Oozie
Offre d'emploi
Business Analyst – Data & Transformation(H/F)
Nous recherchons un Business Analyst spécialisé dans le domaine Data et Transformation pour intervenir sur des projets stratégiques au sein d'une grande plateforme d'assurance. Vos missions principales : En tant que Business Analyst au sein du domaine Solutions Data MAP , vous serez amené(e) à : Collaborer en mode agile avec : Les métiers de l’assurance de personnes. Les filières SI de la plateforme d’assurance. Les partenaires Data du groupe et des prestataires externes. Accompagner le Manager Produit dans : Maintenir la cohérence du produit Data en collaboration avec les tech leads et les architectes. Piloter la transformation Data et la rationalisation des outils. Animer la communauté Scrum pour prioriser le backlog des demandes liées à la transformation. Porter les exigences non fonctionnelles avec les équipes (infogérance, sécurité, habilitations). Contribuer au suivi du bon fonctionnement des solutions Data.
Offre d'emploi
Data Scientist – Domaine de l’environnement(H/F)
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Scientist pour intervenir chez un de nos clients dans le domaine de l’environnement💻💼 💡 Votre futur rôle ? Vous souhaitez travailler au sein d’une équipe d’experts passionnés par la data et l’innovation ? Rejoignez ce projet transverse composé de 6 Data Scientists, où chaque mission est une opportunité de relever de nouveaux défis analytiques ! 🧪 Vos terrains de jeu : • Les données : images satellites, données météo, données océanographiques, télémétrie et trajectoires. • Les méthodes : régression, classification, segmentation sémantique. • Les technologies : de l’analyse classique au Machine Learning et Deep Learning. 📚 Vos missions à la loupe Chaque mission dépend du backlog du Datalab. Pour autant, voici ce que l’on peut déjà vous assurer : • 🦜 Comprendre et analyser le besoin : vous échangerez avec les experts métiers pour cerner le problème à résoudre. • 🧬 Définir la stratégie d’analyse : choix des algorithmes à mobiliser (data processing, ML, DL) en fonction des objectifs. • 💻 Coder et développer des modèles performants : créer des solutions robustes et maintenables en respectant les bonnes pratiques de développement. • 📊 Restituer et déployer : livrer des dashboards percutants et, si nécessaire, mettre les modèles en production. • 👨👩👦 Collaborer au quotidien : échanger régulièrement avec les experts métiers pour affiner les solutions.
Mission freelance
STream Lead Sénior-S4Hana MM & data migration
Mission: Stream Lead SAP S4 Hana MM + data migration lead Activités principales: - Animation ateliers de conception détaillées sur SAP MM + data migration - Pilotage de l'équipe MM et data migration (release D1 MEP prévue février 2025 + RUN de 6 mois) - Paramétrage de la solution SAP S4 (module MM) - Connaissance des fonctionnalités modèle de prévisions / MRP / S&OP / Template handling - Préparation et suivi de la phase des SIT + Recette - Construction et suivi du plan de bascule avec les différents stream lead - Préparation des comité de suivi projet - Reporting rigoureux au management projet Profil: Senior/ (min 5 ans d'expériences sur SAP S4 Hana MM)
Mission freelance
Expert Technique DataHub
Contexte de la mission : Dans le cadre de l'équipe OPS Data / IA au niveau du socle Datahub. Les prestations suivantes : • Garantir le fonctionnement optimal des outils ou systèmes dont il a la charge. • Garantir la résolution des incidents de niveau 2 ou 3 et contribuer à l'élaboration d'actions préventives sur les éléments dont il a la charge. • Apporter l'expertise, conseil et assistance dans l'usage et la mise en œuvre d'applications auprès des projets, support aux projets. • Contribuer à l'évolution des cibles et des trajectoires du SI, • TechLead sur les produits Data / IA,
Offre d'emploi
Responsable Gestion des Données de Validation – Driver Monitoring System (F/H)
📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous recherchons un.e Data Manager pour renforcer notre équipe dédiée à la validation du Driver Monitoring System (DMS), un système avancé de surveillance basé sur des caméras embarquées. Ce dispositif enregistre des données précieuses sur l’état de fatigue, de vigilance et de stress des conducteurs, afin d’améliorer la sécurité sur la route. Vos responsabilités : Vous aurez un rôle stratégique dans la gestion des données de validation, depuis leur collecte jusqu'à leur archivage et leur mise à disposition pour les équipes de test. Tâches principales : - Collecter et traiter les données de test nécessaires à la validation des systèmes de surveillance des conducteurs. - Assurer la vérification et l’annotation des données conformément aux catalogues statistiques et déterministes spécifiés. - Gérer les flux de données : stockage, archivage, transfert et mise à disposition des données pour les campagnes de validation planifiées. - Définir et mettre en œuvre des processus, outils et règles liés à la gestion des données de validation tout au long du cycle de vie du projet, y compris les phases post-SOP (PRCL). - Estimer les capacités et performances nécessaires pour le stockage et le traitement des données, en prenant en compte les coûts associés. - Collaborer avec les équipes R&D pour garantir la synchronisation des livrables et des versions tout au long du projet.
Mission freelance
Ingénieur Data
TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Mission freelance
RTE- Scrum Master
CONTEXTE Une structure projet/produit a été définie et se repartie en 4 équipes : • CCoE : En charge de la gouvernance et de la trajectoire • Outillage du développeur : en charge de la mise à disposition des outils pour les différents types de développeurs • Automatisation du déploiement : Mise à disposition des moyens d’automatisation de déploiements d’infrastructures et applicatifs • Infrastructure as Service : Mise à disposition de services managés d’infrastructures, ces services sont regroupés dans un train appelé PCP (Private Cloud Platform). Afin d’accompagner cette transformation, l’objectif de la mission est d’aider, en proximité avec le Product Manager, l’équipe PCP en tant que Release Train Engineer, dans la gestion des backlogs, la coordination entre les équipes, et l’animation des moyens visant au succès des releases (planification/livraison). MISSION : • Participer aux PI plannings et s'engager sur les produits et services à livrer dans chaque release • Garantir la livraison dans les temps des engagements pris • Collaborer étroitement avec les PO concernés pour optimiser la gestion du Product Backlog et la clarification des objectifs associés, et pour que l'équipe atteigne ses objectifs sur chaque itération • Animer/coordonner les backlogs des équipes qu’il/elle accompagne • Gérer les dépendances et la communication avec les parties prenantes • Accompagner les collaborateurs, en s'assurant de leur bonne compréhension des objectifs, du périmètre, de la clarification des User Stories et déclinaison en incréments, dans le traitement des freins et/ou irritants • Planifier, co-animer et faciliter les cérémonies Scrum
Mission freelance
Ingénieur Data gouvernance (H/F) 75
Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.